본문 바로가기
Mathematics/선형대수

(선형대수학) 4.4 Hermitian Adjoint of Operators

by 피그티 2018. 8. 2.

Inner product는 2개의 vector를 이용하여 scalar를 얻는다. 이 때 inner product에 사용되는 2번째 vector(양자역학에서는 bra vector)는 linear functional과 관련이 있다.

 

 

Linear Functional - Inner Product

 

Finite-dimensional inner product space \(V\)의 고정된 원소 \(\mathbf{v}\)에 대하여 inner product \(\left\langle \mathbf{a} , \mathbf{v} \right\rangle\)을

$$ f(\mathbf{a})=\left\langle \mathbf{a} , \mathbf{v} \right\rangle $$

라고 하면 inner product의 linearity 정의로부터

$$ f(\mathbf{a}+c\mathbf{b})=\left\langle \mathbf{a}+c\mathbf{b} , \mathbf{v} \right\rangle = \left\langle \mathbf{a} , \mathbf{v} \right\rangle + c\left\langle \mathbf{b} , \mathbf{v} \right\rangle = f(\mathbf{a})+c\cdot f(\mathbf{b}) $$

이므로 \(f\)는 \(V\)의 linear functional이다. 반대로 \(V\)의 고정된 linear functional \(g\)는 모든 vector \(\mathbf{a}\)에 대하여

$$ g(\mathbf{a})=\left\langle \mathbf{a} , \mathbf{w} \right\rangle $$

를 만족하는 vector \(\mathbf{w}\)가 존재한다. 즉, linear functional의 addition과 scalar multiplication은 vector의 addition, scalar multiplication과 똑같은 구조를 갖게 되는데 그 연결고리가 inner product이다. \(V^*\)는 \(V\)와 동일한 구조를 가지나 분명히 다른 집합이다. 하지만 대부분의 경우에 구분하지 않고 같은 vector로 취급되기도 한다.

 

예를 들어 electric field \(\vec{E}\)는 scalar field \(V\)와

$$ \vec{E}(\vec{r})=\nabla V(\vec{r}) $$

의 관계가 있다. 원점에서만 보면 \(\vec{E}\)와 \(\nabla V\)는 둘다 vector로 취급되나 사실 \(\vec{E}\)는 vector이고 \(\nabla V\)는 dual space의 원소인 covector이다. 이 둘의 차이는 좌표변환에서 나타난다. 자세한 것은 (다양체,텐서) Example: Coordinate Transformation (2)에서 논의한다.

 

 

Hermitian Conjugate of Operators

 

Inner product에 사용되는 2번째 vector가 linear function과 관계있다는 점으로부터 하나의 linear operator로부터 새로운 linear operator를 정의할 수 있다. Finite-dimensional inner product space \(V\)의 linear operator \(T\)와 고정된 vector \(\mathbf{b}\)에 대하여 linear functional

$$ f(\mathbf{a})=\left\langle T\mathbf{a} , \mathbf{b} \right\rangle $$

를 정의하면 \(f\)는 모든 vector \(\mathbf{a}\)에 대하여

$$ f(\mathbf{a})=\left\langle \mathbf{a} , \mathbf{c} \right\rangle $$

를 만족하는 vector \(\mathbf{c}\)가 존재한다. 이로부터 함수 \(S:V\to V\)

$$ S\mathbf{b}=\mathbf{c} $$

를 정의할 수 있다. 즉,

$$ \left\langle T\mathbf{a} , \mathbf{b} \right\rangle = \left\langle \mathbf{a} , S\mathbf{b} \right\rangle $$

인 함수 \(S\)를 정의할 수 있다. 이 때

$$ \left\langle \mathbf{a} , S(\mathbf{b}+c\mathbf{d}) \right\rangle = \left\langle T\mathbf{a} , \mathbf{b}+c\mathbf{d} \right\rangle = \left\langle T\mathbf{a} , \mathbf{b} \right\rangle + \overline{c} \left\langle T\mathbf{a} , \mathbf{d} \right\rangle = \left\langle \mathbf{a} , S\mathbf{b} \right\rangle + \overline{c}\left\langle \mathbf{a} , S\mathbf{d} \right\rangle = \left\langle \mathbf{a} , S\mathbf{b} + c(S\mathbf{d}) \right\rangle $$

이므로

$$ S(\mathbf{b}+c\mathbf{d})=S\mathbf{b}+c(S\mathbf{d}) $$

즉, \(S\)는 linear operator이다.

 

이제 \(S\)의 matrix representation을 살펴보자. \(V\)가 finite dimension이므로 Gram-Schmidt process를 이용해 orthonormal basis를 항상 얻을 수 있다. Orthonormal basis를

$$ \mathcal{B}=\{ \mathbf{e}_1, \mathbf{e}_2 , \cdots , \mathbf{e}_n \} $$

라고 하자. 그러면 linear operator \(T\)의 matrix representation은

$$ T\mathbf{e}_j = \sum_{k=1} ^n T_{kj} \mathbf{e}_k $$

basis vector의 orthonormality

$$ \left\langle \mathbf{e}_k , \mathbf{e}_i \right\rangle = \delta_{ki} $$

와 inner product의 linearity 성질로부터

$$ \left\langle T\mathbf{e}_j , \mathbf{e}_i \right\rangle = \sum_{k=1} ^n T_{kj} \left\langle \mathbf{e}_k , \mathbf{e}_i \right\rangle = \sum_{k=1} ^n T_{kj}\delta_{ki} = T_{ij} $$

임을 알 수 있다. \(S\)의 정의로부터

$$ S_{ij}=\left\langle S\mathbf{e}_j , \mathbf{e}_i \right\rangle=\overline{\left\langle \mathbf{e}_i , S\mathbf{e}_j \right\rangle}=\overline{\left\langle T\mathbf{e}_i , \mathbf{e}_j \right\rangle}=\overline{T_{ji}} $$

이다.

$$ [T]=\begin{bmatrix} T_{11} & T_{12} & \cdots & T_{1n} \\ T_{21} & T_{22} & \cdots & T_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ T_{n1} & T_{n2} & \cdots & T_{nn} \end{bmatrix} $$

라면

$$ [S]=\begin{bmatrix} \overline{T_{11}} & \overline{T_{21}} & \cdots & \overline{T_{n1}} \\ \overline{T_{12}} & \overline{T_{22}} & \cdots & \overline{T_{n2}} \\ \vdots & \vdots & \ddots & \vdots \\ \overline{T_{1n}} & \overline{T_{2n}} & \cdots & \overline{T_{nn}} \end{bmatrix} $$

즉, \(S\)의 matrix representation은 \([T]\)의 conjugate transpose(또는 hermitian conjugate)가 된다. 이 operator \(S\)를 \(T^*\)로 쓰고 \(T\)의 Hermitian adjoint 또는 Hermitian conjugate라고 부른다.

 

DEFINITION            Hermitian Adjoint of Operators

 

Inner product space \(V\)의 linear operator \(T\)가 임의의 vector \(\mathbf{a}\)와 \(\mathbf{b}\)에 대하여

$$ \left\langle T\mathbf{a} , \mathbf{b} \right\rangle = \left\langle \mathbf{a} , T^*\mathbf{b} \right\rangle $$

인 \(T^*\)가 존재하면 \(T^*\)를 \(T\)의 Hermitian adjoint 또는 Hermitian conjuagte라고 부른다.

 

Inner product space가 finite dimension일 경우 linear operator의 adjoint가 항상 존재하나 infinite dimension일 경우 adjoint가 반드시 존재하는 것은 아니다. 양자역학의 position/momentum wave function에 대한 operator는 infinite-dimensional inner product space에서 정의되므로 adjoint의 존재가 문제가 된다. 다만 물리학과 학부수준에서는 adjoint의 존재를 크게 문제삼지 않는다. 이에 대한 자세한 내용은 (---page link---) 참조.

 

다시 finite dimensional로 돌아오면, hermitian adjoint의 정의로부터 다음과 같은 성질을 확인할 수 있다.

 

1. \(T^{**}=T\)

 

2. \(T\)가 invertible이면, \((T^*)^{-1}=(T^{-1})^*\)

 

3. \((T+S)^* =T^*+S^*\)

 

4. \((cT)^*=\overline{c}T^*\)

 

5. \((TS)^*=S^*T^*\)