Inner product는 2개의 vector를 이용하여 scalar를 얻는다. 이 때 inner product에 사용되는 2번째 vector(양자역학에서는 bra vector)는 linear functional과 관련이 있다.
Linear Functional - Inner Product
Finite-dimensional inner product space \(V\)의 고정된 원소 \(\mathbf{v}\)에 대하여 inner product \(\left\langle \mathbf{a} , \mathbf{v} \right\rangle\)을
$$ f(\mathbf{a})=\left\langle \mathbf{a} , \mathbf{v} \right\rangle $$
라고 하면 inner product의 linearity 정의로부터
$$ f(\mathbf{a}+c\mathbf{b})=\left\langle \mathbf{a}+c\mathbf{b} , \mathbf{v} \right\rangle = \left\langle \mathbf{a} , \mathbf{v} \right\rangle + c\left\langle \mathbf{b} , \mathbf{v} \right\rangle = f(\mathbf{a})+c\cdot f(\mathbf{b}) $$
이므로 \(f\)는 \(V\)의 linear functional이다. 반대로 \(V\)의 고정된 linear functional \(g\)는 모든 vector \(\mathbf{a}\)에 대하여
$$ g(\mathbf{a})=\left\langle \mathbf{a} , \mathbf{w} \right\rangle $$
를 만족하는 vector \(\mathbf{w}\)가 존재한다. 즉, linear functional의 addition과 scalar multiplication은 vector의 addition, scalar multiplication과 똑같은 구조를 갖게 되는데 그 연결고리가 inner product이다. \(V^*\)는 \(V\)와 동일한 구조를 가지나 분명히 다른 집합이다. 하지만 대부분의 경우에 구분하지 않고 같은 vector로 취급되기도 한다.
예를 들어 electric field \(\vec{E}\)는 scalar field \(V\)와
$$ \vec{E}(\vec{r})=\nabla V(\vec{r}) $$
의 관계가 있다. 원점에서만 보면 \(\vec{E}\)와 \(\nabla V\)는 둘다 vector로 취급되나 사실 \(\vec{E}\)는 vector이고 \(\nabla V\)는 dual space의 원소인 covector이다. 이 둘의 차이는 좌표변환에서 나타난다. 자세한 것은 (다양체,텐서) Example: Coordinate Transformation (2)에서 논의한다.
Hermitian Conjugate of Operators
Inner product에 사용되는 2번째 vector가 linear function과 관계있다는 점으로부터 하나의 linear operator로부터 새로운 linear operator를 정의할 수 있다. Finite-dimensional inner product space \(V\)의 linear operator \(T\)와 고정된 vector \(\mathbf{b}\)에 대하여 linear functional
$$ f(\mathbf{a})=\left\langle T\mathbf{a} , \mathbf{b} \right\rangle $$
를 정의하면 \(f\)는 모든 vector \(\mathbf{a}\)에 대하여
$$ f(\mathbf{a})=\left\langle \mathbf{a} , \mathbf{c} \right\rangle $$
를 만족하는 vector \(\mathbf{c}\)가 존재한다. 이로부터 함수 \(S:V\to V\)
$$ S\mathbf{b}=\mathbf{c} $$
를 정의할 수 있다. 즉,
$$ \left\langle T\mathbf{a} , \mathbf{b} \right\rangle = \left\langle \mathbf{a} , S\mathbf{b} \right\rangle $$
인 함수 \(S\)를 정의할 수 있다. 이 때
$$ \left\langle \mathbf{a} , S(\mathbf{b}+c\mathbf{d}) \right\rangle = \left\langle T\mathbf{a} , \mathbf{b}+c\mathbf{d} \right\rangle = \left\langle T\mathbf{a} , \mathbf{b} \right\rangle + \overline{c} \left\langle T\mathbf{a} , \mathbf{d} \right\rangle = \left\langle \mathbf{a} , S\mathbf{b} \right\rangle + \overline{c}\left\langle \mathbf{a} , S\mathbf{d} \right\rangle = \left\langle \mathbf{a} , S\mathbf{b} + c(S\mathbf{d}) \right\rangle $$
이므로
$$ S(\mathbf{b}+c\mathbf{d})=S\mathbf{b}+c(S\mathbf{d}) $$
즉, \(S\)는 linear operator이다.
이제 \(S\)의 matrix representation을 살펴보자. \(V\)가 finite dimension이므로 Gram-Schmidt process를 이용해 orthonormal basis를 항상 얻을 수 있다. Orthonormal basis를
$$ \mathcal{B}=\{ \mathbf{e}_1, \mathbf{e}_2 , \cdots , \mathbf{e}_n \} $$
라고 하자. 그러면 linear operator \(T\)의 matrix representation은
$$ T\mathbf{e}_j = \sum_{k=1} ^n T_{kj} \mathbf{e}_k $$
basis vector의 orthonormality
$$ \left\langle \mathbf{e}_k , \mathbf{e}_i \right\rangle = \delta_{ki} $$
와 inner product의 linearity 성질로부터
$$ \left\langle T\mathbf{e}_j , \mathbf{e}_i \right\rangle = \sum_{k=1} ^n T_{kj} \left\langle \mathbf{e}_k , \mathbf{e}_i \right\rangle = \sum_{k=1} ^n T_{kj}\delta_{ki} = T_{ij} $$
임을 알 수 있다. \(S\)의 정의로부터
$$ S_{ij}=\left\langle S\mathbf{e}_j , \mathbf{e}_i \right\rangle=\overline{\left\langle \mathbf{e}_i , S\mathbf{e}_j \right\rangle}=\overline{\left\langle T\mathbf{e}_i , \mathbf{e}_j \right\rangle}=\overline{T_{ji}} $$
이다.
$$ [T]=\begin{bmatrix} T_{11} & T_{12} & \cdots & T_{1n} \\ T_{21} & T_{22} & \cdots & T_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ T_{n1} & T_{n2} & \cdots & T_{nn} \end{bmatrix} $$
라면
$$ [S]=\begin{bmatrix} \overline{T_{11}} & \overline{T_{21}} & \cdots & \overline{T_{n1}} \\ \overline{T_{12}} & \overline{T_{22}} & \cdots & \overline{T_{n2}} \\ \vdots & \vdots & \ddots & \vdots \\ \overline{T_{1n}} & \overline{T_{2n}} & \cdots & \overline{T_{nn}} \end{bmatrix} $$
즉, \(S\)의 matrix representation은 \([T]\)의 conjugate transpose(또는 hermitian conjugate)가 된다. 이 operator \(S\)를 \(T^*\)로 쓰고 \(T\)의 Hermitian adjoint 또는 Hermitian conjugate라고 부른다.
Inner product space \(V\)의 linear operator \(T\)가 임의의 vector \(\mathbf{a}\)와 \(\mathbf{b}\)에 대하여
$$ \left\langle T\mathbf{a} , \mathbf{b} \right\rangle = \left\langle \mathbf{a} , T^*\mathbf{b} \right\rangle $$
인 \(T^*\)가 존재하면 \(T^*\)를 \(T\)의 Hermitian adjoint 또는 Hermitian conjuagte라고 부른다.
Inner product space가 finite dimension일 경우 linear operator의 adjoint가 항상 존재하나 infinite dimension일 경우 adjoint가 반드시 존재하는 것은 아니다. 양자역학의 position/momentum wave function에 대한 operator는 infinite-dimensional inner product space에서 정의되므로 adjoint의 존재가 문제가 된다. 다만 물리학과 학부수준에서는 adjoint의 존재를 크게 문제삼지 않는다. 이에 대한 자세한 내용은 (---page link---) 참조.
다시 finite dimensional로 돌아오면, hermitian adjoint의 정의로부터 다음과 같은 성질을 확인할 수 있다.
1. \(T^{**}=T\)
2. \(T\)가 invertible이면, \((T^*)^{-1}=(T^{-1})^*\)
3. \((T+S)^* =T^*+S^*\)
4. \((cT)^*=\overline{c}T^*\)
5. \((TS)^*=S^*T^*\)
'Mathematics > 선형대수' 카테고리의 다른 글
(선형대수학) 4.6-(1) Orthogonal Operators (0) | 2018.08.02 |
---|---|
(선형대수학) 4.6 Isometry, Unitary Operator (0) | 2018.08.02 |
(선형대수학) 4.5 Self-adjoint Operators(Hermitian Operators) (1) | 2018.08.02 |
(선형대수학) 4.3 Orthogonality, Gram-Schmidt Process (0) | 2018.08.01 |
(선형대수학) 4.2 Norm (0) | 2018.08.01 |
(선형대수학) 4.1 Inner Product Space (0) | 2018.08.01 |