본문 바로가기
Physics/양자역학

[양자역학] 1.4 측정, 확률 Measures, Probabilities

by 피그티 2018. 10. 26.

(공백)

3. State vector \(\left|\psi\right\rangle\) 가 observable \(L\) 에 대한 측정이 eigenvalue \(l\) (그리고 이에 대한 eigenvector를 \(\left| l \right\rangle\) ) 이 될 확률은 \(\left| \left\langle l | \psi \right\rangle \right|^2\) 에 비례한다. 측정의 결과로 state vector는 \(\left|\psi\right\rangle\) 에서 \(\left|l\right\rangle\) 로 변한다.

(공백)


이번 가정에서 살펴볼 것은 측정 결과와 측정 행위에 대한 것이다.


#Eigenvectors #Probabilities

학부 양자역학 대부분은 \(L^2\) space 중에서 finite-diemension(또는 countably infinite-dimension) vector space가 되는 부분집합만을 다룰 것이기 때문에, 여기에서는 finite-dimension의 경우를 살펴보자.


Hermitian operator \(L\) 에 대하여, inner product space의 basis를 \(L\) 의 eigenvector들로 구성할 수 있다. 만약 우리가 다루는 space가 \(n\)-dimension인 경우

$$ L \left| l_i \right\rangle = l_i \left| l_i \right\rangle $$

를 만족하는 \(\left| l_i \right\rangle\) 들을 집합

$$ \mathcal{B} = \left\{~ \left| l_1 \right\rangle ~,~ \left| l_2 \right\rangle ~,~ \cdots ~,~ \left| l_n \right\rangle ~\right\} $$

가 basis가 된다. 이 때 \(\left| l_i \right\rangle\) 들에 적당한 계수들을 곱하여 재정의 함으로써

$$ \left.\left\langle l_i \right| l_j \right\rangle = \delta_{ij} $$

즉, orthonormal basis를 만들 수 있다.[각주:1]



이를 이용해서, 임의의 state vector \(\left| f \right\rangle\) 는 basis vector들의 linear combination

$$ \left| f \right\rangle = \sum _{i=1} ^n f_{i} ~\left| l_i \right\rangle $$

와 같은 형태로 표현할 수 있고,

$$ \left.\left\langle l_i \right| f \right\rangle = \sum _{j=1} ^n f_{j} \left.\left\langle l_i \right| l_j \right\rangle = \sum _{j=1} ^n f_{j} \delta_{ij} = f_i $$

가 된다. 그러므로 observable \(L\) 에 대한 측정이 eigenvalue \(l_i\) 가 될 확률은

$$ P\left( l_i \right) ~\propto~ \left| f_i \right| ^2 $$

이 된다.



위의 논의를 종합하면, state vector \(\left| f \right\rangle\) 에 observable \(L\) 을 측정하면 측정값 \(l_1\) , \(l_2\) , ... , \(l_n\) 이 가능하고, 각 측정값이 나올 확률은

$$ \begin{eqnarray*} P(l_1) & \propto & \left| f_1 \right| ^2 \\ \\ P(l_2) & \propto & \left| f_2 \right| ^2 \\ \\ & \vdots & \\ \\ P(l_n) & \propto & \left| f_n \right| ^2 \end{eqnarray*} $$

이므로, 전체 확률 값은 1이어야 하므로, 비례 상수를 \(k\) 라고 하면

$$ \sum _{i=1} ^n P(l_i) = \sum _{i=1} ^n k \left| f_i \right| ^2 = k \left\langle f | f \right\rangle = 1 $$

따라서 \( k = \frac{1}{\left\langle f | f \right\rangle} \) 을 얻는다. 즉, 측정값 \(l_i\) 가 나올 확률은

$$ P(l_i) = \frac{\left| f_i \right| ^2}{\left\langle f | f \right\rangle} $$

가 된다.


#Normalization of State Vectors

\(\left| f \right\rangle\) 에 0이 아닌 임의의 scalar \(u\) 를 곱한 state vector

$$ u\left| f \right\rangle = \sum _{i=1} ^n u f_{i} ~\left| l_i \right\rangle $$

에 대하여, \(L\) 의 측정값 \(l_1\) , \(l_2\) , ... , \(l_n\) 이 나올 확률은

$$ \begin{eqnarray*} P'(l_1) & = & \frac{\left| u \right| ^2 \left| f_1 \right| ^2}{\left| u \right| ^2 \left\langle f | f \right\rangle} & = & \frac{\left| f_1 \right| ^2}{\left\langle f | f \right\rangle} & = & P(l_1) \\ \\ P'(l_2) & = & \frac{\left| u \right| ^2 \left| f_2 \right| ^2}{\left| u \right| ^2 \left\langle f | f \right\rangle} & = & \frac{\left| f_2 \right| ^2}{\left\langle f | f \right\rangle} & = & P(l_2) \\ \\ & & & \vdots & & & \\ \\ P'(l_n) & = & \frac{\left| u \right| ^2 \left| f_n \right| ^2}{\left| u \right| ^2 \left\langle f | f \right\rangle} & = & \frac{\left| f_n \right| ^2}{\left\langle f | f \right\rangle} & = & P(l_n) \end{eqnarray*} $$

Observable \(L\) 은 임의로 선택한 것이므로, 결국 모든 observable에 대하여 \(\left| f \right\rangle\) 와 \(u\left| f \right\rangle\) 는 완전히 똑같은 확률 분포를 가진다. 물리적으로 시스템이 다르다는 것은 어떤 측정에 대하여 다른 값이 나온다는 의미이므로, 결국 \(\left| f \right\rangle\) 와 \(u\left| f \right\rangle\) 는 물리적으로 완전히 똑같은 시스템이라고 해석할 수 있다.


DEFINITION            Equivalent State Vectors


State vector \(|f\rangle\) 와 \(|g\rangle\) 가 복소수 \(c\) 에 대하여

\[ |f\rangle = c ~|g\rangle \]

의 관계에 있을 때, \(|f\rangle\) 와 \(|g\rangle\) 는 물리적으로 똑같은 시스템을 표현하고 있다고 부른다.


만약 \(\left\langle f | f \right\rangle=1\) 이면, 이 확률은

$$ P(l_i) = \left| f_i \right| ^2 $$

처럼 계수의 제곱과 같아진다. 이를 state vector가 normalized되어 있다고 부른다. \(\left\langle f | f \right\rangle\) 가 1이 아닌 어떤 값 \(q\) 인 경우 다음과 같은 방식으로 inner product가 1이 되도록 만들어 줄 수 있다.


DEFINITION            Normalization of State Vector


State vector \(\left| f \right\rangle\) (\(\ne 0\)) 에 대하여,

$$ \left| f' \right\rangle = u \left| f \right\rangle $$

$$\left\langle f' | f' \right\rangle = \left| u \right| ^2 \left\langle f | f \right\rangle = 1$$

인 경우 \(\left| f' \right\rangle\) 를 \(\left| f \right\rangle\) 의 normalized vector라고 한다.


위에서 말한대로 normalized vector는 원래 state vector와 물리적으로 완전히 똑같은 시스템이다. 보통 normalized vector를 만들기 위하여, \(u\)로

$$ \frac{1}{\sqrt{\left\langle f | f \right\rangle}} $$

를 택한다.


#Phase Factors

그러나 \(\left| f \right\rangle\) 의 normalized vector가 유일한 것은 아니다. \(\left| f' \right\rangle\) 가 normalized vector라고 한다면,

$$ e^{i\theta} \left| f' \right\rangle $$

역시 normalized vector가 된다. 이 때, 계수 \(e^{i\theta}\) 를 phase factor라고 부른다. 보통은 phase factor는 물리적으로 특별한 의미를 가지지 않지만, 경우에 따라서는 phase factor가 중요한 역할을 하는 경우도 있다. Phase factor가 특별한 의미를 가지지 않은 이상 이후부터 state vector는 normalized vector로 생각하겠다.


#Wave Function Collapse

만약 state vector \(\left| \psi \right\rangle\) 이

$$ \left| \psi \right\rangle = \frac{1}{\sqrt{2}} \left( ~\left| l_1 \right\rangle~ + ~\left| l_2 \right\rangle~ \right) $$

라면, 위의 본것과 같이, \(L\) 을 측정했을 때 측정값이 \(l_1\) 일 확률이 50%이고 \(l_2\) 일 확률이 50% 이다. 


실제로 측정을 해보니 \(l_1\)이 나왔다고 가정하자. 그리고 다시 \(L\) 을 측정한다고 했을 때, 한번 \(l_1\) 이 나온 system에 아무런 조작 없이 다시 \(L\) 을 측정했을 때, 갑자기 \(l_2\) 가 나온다면, 이전 측정 결과를 신뢰할 수 없게되므로 실험을 토대로 쌓아온 과학은 무용지물이 될 것이다. 



따라서 한번 측정하여 \(l_1\) 이 나온 system에 아무런 영향을 끼치지 않은 상태에서 다시 \(L\)을 측정하는 경우 다시 \(l_1\) 이 나와야 한다. 즉, 2번째 측정시에 state vector는 \(l_1\) 이 나올 확률이 100%인 state vector \(\left| l_1 \right\rangle\) 이어야 한다는 것이다. 따라서 측정 행위는 system을 측정값에 대한 eigenvector가 되도록 변형시키게 되는데 이를 wave function collapse라고 부른다. (측정값과 다른 eigenvalue가 될 확률을 붕괴시킨다고 이해할 수 있을것이다.)

$$ \left| \psi \right\rangle ~~~~~\xrightarrow[\text{    value : }l_1\text{    }]{\text{observable : }L} ~~~~~ \left| l_1 \right\rangle $$



  1. Orthonormal basis의 존재 여부에 대한 내용은 [선형대수학] 4.7 Normal Operators 참고. [본문으로]