본문 바로가기
Physics/양자역학

[양자역학] 3.6 양자역학의 행렬 표현 Matrix Representation of Quantum Mechanics ①

by 피그티 2020. 6. 19.

이번 페이지에서는 양자역학의 선형대수학적 구조를 가장 잘 표현할 수 있도록 wave function과 operator를 행렬로 표현할 것이다. 자세한 증명은 [선형대수학] 1.4 Coordinate Representation과 [선형대수학] 2.5 Representations of Linear Transformations 참고할 것.


#Matrix Representation of Wave Functions

wave function \(f\)가 Hamiltonian \(H\)의 eigenvector \(| n \rangle\)

$$ H ~|n\rangle = \left( n + \frac{1}{2} \right) \hbar\omega ~|n\rangle ~~,~~ n=0,1,2,3,\cdots $$

들로 다음과 같이 전개된다고 하자.

$$ | f \rangle = \sum _{j=0} ^{\infty} f_j ~| j \rangle = f_0 ~| 0 \rangle + f_1 ~| 1 \rangle + f_2 ~| 2 \rangle + \cdots $$

그러면 \(| f \rangle\)을 행렬로 다음과 같이 표현한다.

$$ | f \rangle \longrightarrow \begin{bmatrix} f_0 \\ f_1 \\ f_2 \\ \vdots \end{bmatrix} $$

이 때, eigenvector들이 orthonormal한 경우

$$ \langle n | m \rangle = \delta_{nm} $$

계수 \(f_j\)는 inner product로 표현될 수 있다.

$$ f_j = \langle j | f \rangle $$

따라서 행렬 표현도 inner product(또는 적분)으로도 표현할 수 있다.


THEOREM            Matrix Representations of Wave Functions


H의 eigenvector \(|0\rangle\), \(|1\rangle\), ..., \(|n\rangle\), ... 들이 서로 orthonormal한 경우

$$ | f \rangle \longrightarrow \begin{bmatrix} \langle 0 | f \rangle \\ \langle 1 | f \rangle \\ \langle 2 | f \rangle \\ \vdots \end{bmatrix} $$


#Matrix Representations of Wave Function Operations

Wave function들은 덧셈, 뺄셈, scalar multiplication이 가능하다.[각주:1] Wave function \(f\)와 \(g\)가 다음과 같이 전개된다고 하자.

$$ \begin{align*} | f \rangle &= \sum _{j=0} ^{\infty} f_j ~| j \rangle = f_0 ~| 0 \rangle + f_1 ~| 1 \rangle + f_2 ~| 2 \rangle + \cdots \\ | g \rangle &= \sum _{j=0} ^{\infty} g_j ~| j \rangle = f_0 ~| 0 \rangle + g_1 ~| 1 \rangle + g_2 ~| 2 \rangle + \cdots \end{align*} $$

그러면 \(f\)와 \(g\)의 덧셈은

$$ | f \rangle + | g \rangle = (f_0+g_0)~| 0 \rangle + (f_1+g_1) ~| 1 \rangle + (f_2+g_2) ~| 2 \rangle + \cdots $$

이를 행렬로 표현하면,

$$ | f \rangle + | g \rangle \longrightarrow \begin{bmatrix} f_0 \\ f_1 \\ f_2 \\ \vdots \end{bmatrix} + \begin{bmatrix} g_0 \\ g_1 \\ g_2 \\ \vdots \end{bmatrix} = \begin{bmatrix} f_0+g_0 \\ f_1+g_1 \\ f_2+g_2 \\ \vdots \end{bmatrix} $$

즉, 단순한 행렬의 덧셈이 된다. 같은 방식으로 wave function의 뺄셈은 행렬의 뺄셈, scalar multiplication은 행렬의 scalar multiplication이 된다.


THEOREM            Matrix Representations of Wave Function Operations

$$ \begin{align*} | f \rangle + | g \rangle & & \longrightarrow & &\begin{bmatrix} f_0 \\ f_1 \\ f_2 \\ \vdots \end{bmatrix} + \begin{bmatrix} g_0 \\ g_1 \\ g_2 \\ \vdots \end{bmatrix} &= \begin{bmatrix} f_0+g_0 \\ f_1+g_1 \\ f_2+g_2 \\ \vdots \end{bmatrix} \\ \\ | f \rangle - | g \rangle & & \longrightarrow & &\begin{bmatrix} f_0 \\ f_1 \\ f_2 \\ \vdots \end{bmatrix} - \begin{bmatrix} g_0 \\ g_1 \\ g_2 \\ \vdots \end{bmatrix} &= \begin{bmatrix} f_0-g_0 \\ f_1-g_1 \\ f_2-g_2 \\ \vdots \end{bmatrix} \\ \\ c | f \rangle & & \longrightarrow & &c \begin{bmatrix} f_0 \\ f_1 \\ f_2 \\ \vdots \end{bmatrix} &= \begin{bmatrix} cf_0 \\ cf_1 \\ cf_2 \\ \vdots \end{bmatrix} \end{align*}$$


#Matrix Representations of Inner Product

Eigenvector들은 서로 orthonormal하고

$$ \langle n | m \rangle = \delta_{nm} $$

inner product가 2번째 wave function에 대하여 linear

$$ \langle f | c\cdot g + \cdot h \rangle = c\langle f | g \rangle + \langle f | h \rangle $$

1번째 wave function에 대하여는 antilinear

$$ \langle c \cdot f + g | h \rangle = c^\ast \langle f | h \rangle + \langle f | h \rangle $$

을 이용하면, wave function의 inner product를 행렬 표현에서 쉽게 구할 수 있다.

$$ \begin{align*} | f \rangle &= \sum _{j=0} ^{\infty} f_j ~| j \rangle = f_0 ~| 0 \rangle + f_1 ~| 1 \rangle + f_2 ~| 2 \rangle + \cdots \\ | g \rangle &= \sum _{j=0} ^{\infty} g_j ~| j \rangle = f_0 ~| 0 \rangle + g_1 ~| 1 \rangle + g_2 ~| 2 \rangle + \cdots \end{align*} $$

이면, \(f\)와 \(g\)의 inner product는 (표현이 복잡해지므로 inner product 안에서 eigenvector \(|n\rangle\) 대신 \(\hat{\mathbf{n}}\)으로 쓰겠다.)

$$ \begin{align*} \langle f | g \rangle &= \langle f_0 \cdot \hat{\mathbf{0}} + f_1 \cdot \hat{\mathbf{1}} + f_2 \cdot \hat{\mathbf{2}} + \cdots | g_0 \cdot \hat{\mathbf{0}}  + g_1 \cdot \hat{\mathbf{1}} + g_2 \cdot \hat{\mathbf{2}} + \cdots \rangle \\ \\ &= g_0 \langle f_0 \cdot \hat{\mathbf{0}} + f_1 \cdot \hat{\mathbf{1}} + f_2 \cdot \hat{\mathbf{2}} + \cdots | g_0 \cdot \hat{\mathbf{0}} \rangle + g_1 \langle f_0 \cdot \hat{\mathbf{0}} + f_1 \cdot \hat{\mathbf{1}} + f_2 \cdot \hat{\mathbf{2}} + \cdots | \hat{\mathbf{1}} \rangle + \cdots \\ \\ &= f_0 ^\ast g_0 ~\langle \hat{\mathbf{0}} | \hat{\mathbf{0}} \rangle + f_1 ^\ast g_0 ~\langle \hat{\mathbf{1}} | \hat{\mathbf{0}} \rangle + f_2 ^\ast g_0 ~\langle \hat{\mathbf{2}} | \hat{\mathbf{0}} \rangle + \cdots + f_0 ^\ast g_1 ~\langle \hat{\mathbf{1}} | \hat{\mathbf{0}} \rangle + f_1 ^\ast g_1 ~\langle \hat{\mathbf{1}} | \hat{\mathbf{0}} \rangle + \cdots \\ \\ &= f_0 ^\ast g_0 + f_1 ^\ast g_1 + f_2 ^\ast g_2 + \cdots \end{align*} $$

이는 다음과 같이 행렬의 곱으로 압축할 수 있다.


THEOREM            Matrix Representations of Inner Product


H의 eigenvector \(|0\rangle\), \(|1\rangle\), ..., \(|n\rangle\), ... 들이 서로 orthonormal한 경우

$$ \langle f | g \rangle = \begin{bmatrix} f_0 ^\ast & f_1 ^\ast & f_2 ^\ast & \cdots \end{bmatrix} \begin{bmatrix} g_0 \\ g_1 \\ g_2 \\ \cdots \end{bmatrix} $$


행렬의 Hermitian adjoint를 다음과 같이 transpose conjugate로 정의하면

$$ A = \begin{bmatrix} a_{11} & a_{12} & a_{13} & \cdots \\ a_{21} & a_{22} & a_{23} & \cdots \\ a_{31} & a_{32} & a_{33} & \cdots \\ \vdots & \vdots & \vdots & \ddots \end{bmatrix} ~~~~ \Longrightarrow ~~~~ A^\dagger = \begin{bmatrix} a_{11}^\ast & a_{21}^\ast & a_{31}^\ast & \cdots \\ a_{12}^\ast & a_{22}^\ast & a_{32}^\ast & \cdots \\ a_{13}^\ast & a_{23}^\ast & a_{33}^\ast & \cdots \\ \vdots & \vdots & \vdots & \ddots \end{bmatrix} $$

inner product는 다음과 같이 표현된다.

$$ \langle f | g \rangle = \begin{bmatrix} f_0 \\ f_1 \\ f_2 \\ \cdots \end{bmatrix} ^\dagger \begin{bmatrix} g_0 \\ g_1 \\ g_2 \\ \cdots \end{bmatrix} $$


#Matrix Representations of Linear Operators

Linear operator은 wave function을 받아 wave function이 나오는 연산이므로, 임의의 linear operator \(T\)에 \(j\)번째 eigenvector \(|j\rangle\)을 작용한 결과를 eigenvector로 전개할 수 있다.

$$ T |j\rangle = \sum _{n=0} ^\infty w_n ~|n\rangle = w_0 ~|0\rangle + w_1 ~|1\rangle + w_2 ~|2\rangle + \cdots $$

이를 이용해, \(T\)의 행렬 표현을 다음과 같이 구한다.

$$ \begin{array}{} ~~~~~~~~~~~\scriptstyle{(j\mathrm{th~column})} \\ T \longrightarrow \begin{bmatrix} & w_1 & \\ & w_2 & \\ \cdots & \vdots & \cdots \\ & w_m & \end{bmatrix} \end{array}$$

이 때, 계수 \(w_i\)는 eigenvector와의 inner product

$$ w_i = \langle i | T | j \rangle $$

로 구할 수 있으므로 다음과 같은 결과를 얻는다.


THEOREM            Matrix Representations of Operators


H의 eigenvector \(|0\rangle\), \(|1\rangle\), ..., \(|n\rangle\), ... 들이 서로 orthonormal한 경우

$$ T \longrightarrow \begin{bmatrix} \langle 0 | T | 0 \rangle & \langle 0 | T | 1 \rangle & \langle 0 | T | 2 \rangle & \cdots \\ \langle 1 | T | 0 \rangle & \langle 1 | T | 1 \rangle & \langle 1 | T | 2 \rangle & \cdots \\ \langle 2 | T | 0 \rangle & \langle 2 | T | 1 \rangle & \langle 2 | T | 2 \rangle & \cdots \\ \vdots & \vdots & \vdots & \ddots \\ \end{bmatrix} $$


그리고 operator를 wave function에 작용하는 것과 inner product를 다음과 같이 표현된다.


THEOREM           

 

Wave function \(f\)와 \(g\)의 행렬 표현을 \([f]\), \([g]\), linear operator \(T\)의 행렬 표현을 \([T]\)라고 하면, linear operator 연산은 다음의 행렬의 식으로 표현된다.

$$ \begin{gather*} T | f \rangle & & \longrightarrow & & [T][f] \\ \langle f | T | g \rangle & & \longrightarrow & & [f]^\dagger [T][g] \end{gather*}$$


Examples

1. Annihilation operator \(a\)와 creation operator \(a^\dagger\)


3.5 Creation and Annihilation Operators에서 본 것과 같이 eigenvector \(|j\rangle\)에 annihilation operator를 작용하면,

$$ a | j \rangle = \sqrt{j} ~| j-1 \rangle $$

이므로

$$ \langle i | a | j \rangle = \sqrt{j} ~\langle i | j-1 \rangle = \sqrt{j} ~\delta_{i,j-1} = \left\{ \begin{array}{ccl} \sqrt{j} & , &\text{if } i=j-1 \\ 0 & , &\text{otherwise} \end{array} \right. $$

따라서 \(a\)의 행렬 표현은

$$ [a] = \begin{bmatrix} \langle 0 | a | 0 \rangle & \langle 0 | a | 1 \rangle & \langle 0 | a | 2 \rangle & \langle 0 | a | 3 \rangle & \cdots \\ \langle 1 | a | 0 \rangle & \langle 1 | a | 1 \rangle & \langle 1 | a | 2 \rangle & \langle 1 | a | 3 \rangle & \cdots \\ \langle 2 | a | 0 \rangle & \langle 2 | a | 1 \rangle & \langle 2 | a | 2 \rangle & \langle 2 | a | 3 \rangle & \cdots \\ \langle 3 | a | 0 \rangle & \langle 3 | a | 1 \rangle & \langle 3 | a | 2 \rangle & \langle 3 | a | 3 \rangle & \cdots \\ \vdots & \vdots & \vdots & \ddots \end{bmatrix} = \begin{bmatrix} 0 & 1 & 0 & 0 & \cdots \\ 0 & 0 & \sqrt{2} & 0 & \cdots \\ 0 & 0 & 0 & \sqrt{3} & \cdots \\ 0 & 0 & 0 & 0 & \cdots \\ \vdots & \vdots & \vdots & \vdots & \ddots \end{bmatrix} $$

같은 방식으로

$$ a^\dagger | j \rangle = \sqrt{j+1} ~|j+1\rangle $$

따라서 \(a^\dagger\)의 행렬 표현은

$$ [a^\dagger] = \begin{bmatrix} \langle 0 | a^\dagger | 0 \rangle & \langle 0 | a^\dagger | 1 \rangle & \langle 0 | a^\dagger | 2 \rangle & \langle 0 | a^\dagger | 3 \rangle & \cdots \\ \langle 1 | a^\dagger | 0 \rangle & \langle 1 | a^\dagger | 1 \rangle & \langle 1 | a^\dagger | 2 \rangle & \langle 1 | a^\dagger | 3 \rangle & \cdots \\ \langle 2 | a^\dagger | 0 \rangle & \langle 2 | a^\dagger | 1 \rangle & \langle 2 | a^\dagger | 2 \rangle & \langle 2 | a^\dagger | 3 \rangle & \cdots \\ \langle 3 | a^\dagger | 0 \rangle & \langle 3 | a^\dagger | 1 \rangle & \langle 3 | a^\dagger | 2 \rangle & \langle 3 | a^\dagger | 3 \rangle & \cdots \\ \vdots & \vdots & \vdots & \ddots \end{bmatrix} = \begin{bmatrix} 0 & 0 & 0 & 0 & \cdots \\ 1 & 0 & 0 & 0 & \cdots \\ 0 & \sqrt{2} & 0 & 0 & \cdots \\ 0 & 0 & \sqrt{3} & 0 & \cdots \\ \vdots & \vdots & \vdots & \vdots & \ddots \end{bmatrix} $$

을 구할 수 있다. 또한

$$ [a^\dagger] = [a]^\dagger $$

인데, 이는 일반적인 linear operator에서도 마찬가지이다.


THEOREM            Matrix Representation of Hermitian Adjoint


임의의 linear operator \(T\)에 대하여, \(T\)의 Hermitian adjoint의 행렬 표현은 \(T\)의 transpose conjugate이다.

$$ [T^\dagger] = [T]^\dagger $$



2. Position operator \(X\)와 momentum operator \(P\)


Annihilation operator의 정의

$$ a = \sqrt{\frac{m\omega}{2\hbar}} X + i \sqrt{\frac{1}{2m\hbar\omega}}P $$

로부터 \(X\)와 \(P\)의 행렬 표현을 쉽게 구할 수 있다.

$$ \begin{gather*} X &=& \sqrt{\frac{\hbar}{2m\omega}}(a+a^\dagger) \\ P &=& i\sqrt{\frac{m\hbar\omega}{2}}(a^\dagger -a) \end{gather*} $$

이므로

$$ \begin{gather*} [X] &=& \sqrt{\frac{\hbar}{2m\omega}}\begin{bmatrix} 0 & 1 & 0 & 0 & \cdots \\ 1 & 0 & \sqrt{2} & 0 & \cdots \\ 0 & \sqrt{2} & 0 & \sqrt{3} & \cdots \\ 0 & 0 & \sqrt{3} & 0 & \cdots \\ \vdots & \vdots & \vdots & \vdots & \ddots \end{bmatrix} \\ \\ [P] &=& i\sqrt{\frac{m\hbar\omega}{2}} \begin{bmatrix} 0 & -1 & 0 & 0 & \cdots \\ 1 & 0 & -\sqrt{2} & 0 & \cdots \\ 0 & \sqrt{2} & 0 & -\sqrt{3} & \cdots \\ 0 & 0 & \sqrt{3} & 0 & \cdots \\ \vdots & \vdots & \vdots & \vdots & \ddots \end{bmatrix} \end{gather*} $$



3. Standard Deviation \(\Delta X\) of eigenvector \(|n\rangle\)


\(X\)의 분산을 구하기 위해 \(X^2\)의 행렬을 구하면

$$ [X^2] = [X][X] = \frac{\hbar}{2m\omega} \begin{bmatrix} 1 & 0 & \sqrt{2} & 0 & \cdots \\ 0 & 3 & 0 & \sqrt{6} & \cdots \\ \sqrt{2} & 0 & 5 & 0 & \cdots \\ 0 & \sqrt{6} & 0 & 7 & \cdots \\ \vdots & \vdots & \vdots & \vdots & \ddots \end{bmatrix} $$

따라서 

$$ E[X^2] = \langle n | X^2 | n \rangle = \frac{\hbar}{2m\omega} (2n+1) $$

이므로

$$ \text{Var}(X^2) = E[X^2] - (E[X])^2 = \frac{\hbar}{2m\omega} (2n+1) $$

따라서

$$ \Delta X = \sqrt{\frac{\hbar}{m\omega}\left(n+\frac{1}{2}\right)} $$

을 얻을 수 있다. 같은 방식으로

$$ \Delta P = \sqrt{m\hbar\omega\left( n + \frac{1}{2}\right)} $$

그러므로 위치와 운동량의 표준편차의 곱은

$$ (\Delta X) (\Delta P) = \left(n+\frac{1}{2}\right)\hbar $$

\(n\)이 클수록 (즉, energy가 클수록) 위치와 운동량의 불확정성이 커진다는 것을 알 수 있다.