본문 바로가기
Mathematics/선형대수

(선형대수학) 3.3 Direct Sum Decomposition

by 피그티 2018. 7. 30.

Direct Sum

 

Diagonalizable 페이지에서 구별되는 eigenvalue에 대한 eigenspace는 서로 linearly independent하다는 것을 보았다. 서로 linearly independent한 subspace W1, W2, ..., Wk

Wispan(W1,,Wi1,Wi+1,,Wk)={0}

을 만족한다. 반대로 위를 만족하는 경우 subspace들은 서로 linearly independent하다. 따라서 linearly independent한 subspace들로 span한 새로운 vector space W

dim(W)=dim(W1)+dim(W2)++dim(Wk)

이 된다. 이렇게 만들어진 새로운 vector space WW1, W2, ..., Wk의 direct sum이라고 하고,

W=W1W2Wk

로 쓴다. 보통 span한 space

W=span(W1,W2,,Wk)

에서 각 집합이 subspace인 경우

W=W1+W2++Wk

처럼 표현하는데 direct sum을 이와 구분하기 위해서 기호를 사용한다.

 

DEFINITION            Direct Sum

 

Vector space W의 subspace W1, W2

 

1. W1W2={0}

 

2. W=span(W1,W2)

 

일 경우,

W=W1W2

로 표현하고 WW1W2의 direct sum이라고 한다.

 

Direct sum를 W에서 보면, W를 겹치지 않는 subspace들 W1, W2, ..., Wk들로 나눌 수 있다는 의미이다. (물론, '겹치지 않는다'가 집합의 관점 W1W2=임을 의미하는 것이 아니고 vector의 관점에서 independent함을 의미한다. 비슷하게 '나눈다'는 것도 W=W1W2를 의미하는 것이 아니라 span된다는 것을 의미한다.)

 

 

Examples

 

1. 2차원 Euclidean space R2의 subspace

X={(x,0) | xR}

Y={(0,y) | yR}

XY={(0,0)}

이므로 서로 linearly indepedent하다. 그리고 R2=X+Y이므로

R2=XY

이다. X는 x축을, Y는 y축을 표현하므로 2차원 Euclidean space는 x축과 y축의 direct sum이라고 할 수 있다. X, Y는 dimension이 1이므로 (선형대수학) 2.3 Isomorphism의 정리에 의해 R과 isomorphic하고 사실상 R과 같다. 이를 이용해

R2=RR

로 표현하기도 한다.

 

 

2. (선형대수학) 3.2 Diagonalizable Operators에서 본 것과 같이 vector space V의 diagonalizable linear operator T에 대하여 eigenspace들을 W1, W2, ..., Wk라고 하면,

V=W1W2Wk

이다.

 

 

3. Basis를

B={e1,e2,,en}

로 하는 n-dimensional vector space V에 대하여, Wi

Wi={cei}

인 subspace라고 하면, Wi의 dimension은 1이고 서로 linearly independent하다. 그러므로

V=W1W2Wn

이다.

 

 

4. Vector space V에 대하여 projection operator P를 살펴보자.((선형대수학) 2.5-(1) Example: Projection 참조) P의 eigenvalue를 구하기 위해

Pv=cv

로 부터

cv=Pv=P2v=c2v

이므로 eigenvalue는 1 또는 0이어야 한다. 이제 eigenvalue 1에 대한 eigenspace를 W라고 하고 eigenvalue 0에 대한 eigenspace를 N(즉, P의 kernel, (선형대수학) 2.6 Kernel of Linear Transformation 참조)이라고 하자. WN은 서로 다른 eigenvalue에 대한 eigenspace들이므로 linearly independent하다. 그리고 임의의 vector v

v=v+PvPv=Pv+(vPv)

이다. PvP의 eigenvector이고 (vPv)P에 의해 zero-vector가 되므로

V=W+N

이다. 따라서

V=WN

이다.

 

 

Direct Sum Decomposition

 

Vector space V

V=W1W2Wk

이면 임의의 vector v는 subspace Wi에 있는 vector wi들의 합으로 표현된다.

v=w1+w2++wk

이 때, VWi들의 direct sum이므로 이를 만족하는 vector wi들은 유일하게 결정된다. Direct sum이 아니라 단순히 span일 경우 여러 가지 경우가 가능하다. 이제 linear operator Pi를 다음과 같이 정의하자.

Piv=wi

Pi가 projection operator임을 쉽게 확인할 수 있다.  ij인 경우

PiPjv=Piwj=0

이므로

PiPj=δijPi

이다.  임의의 vector v에 대하여,

v=w1+w2++wk=P1v+P2v++Pkv=(P1+P2++Pk)v

이므로

I=P1+P2++Pk

이다. 또한 Pi의 image

im(Pi)=Wi

가 된다.

 

이를 종합하면, 

 

THEOREM            Direct Sum Decomposition

 

Vector space VW1, W2, ..., Wk의 direct sum인 경우

 

1. Pi는 projection

 

2. PiPj=δijPi

 

3. I=P1+P2++Pk

 

4. im(Pi)=Wi

 

를 만족하는 linear operator P1, P2, ..., Pk가 존재한다.

 

역으로, 1, 2, 3의 조건을 만족하는 linear operator P1, P2, ..., Pk가 존재하는 경우 subspace

Wi=im(Pi)

라고 하면, VW1, W2, ..., Wk의 direct sum이 된다.

 

위의 예제 2에서 보았듯이, linear operator T가 diagonalizable하면 vector space V는 eigenspace Wi들의 direct sum으로 표현된다.

V=W1W2Wk

Wi의 vector wi

Twi=ciwi

이므로 다시 Wi의 원소가 된다. 따라서

TWi={TwiV | wiWi}

와 같이 정의하면(집합에 대한 함수의 image)

TWiWi

가 된다. 이렇게 어떤 집합에 linear operator를 작용한 결과 그 image가 다시 원래의 집합에 속하는 경우 그 집합을 invariant하다고 부른다.

 

DEFINITION            Invariant Set under Linear Operation

 

Vector space V의 subset W가 linear operator T에 대하여 image가 W에 포함되면, WT에 대하여 invariant하다고 부른다.

 

Finite vector space V의 linear operator T에 대하여 invariant한 proper subspace W(즉, WV)가 있는 경우 T의 matrix 표현은 block diagonal 형태로 표현될 수 있다. W의 basis가

{e1,,ek}

라면, V의 basis를

{e1,,ek,ek+1,,en}

으로 잡아서

[T]=[A00B] ,where A is a k×k matrix, B is a (nk)×(nk) matrix

의 형태로 만들수 있다.

 

 

Spectral Decomposition

 

다시 diagonalizable operator T로 돌아오면, 임의의 vector v는 eigenspace의 vector들로 decomposition된다. Eigenvalue ci에 대한 eigenspace Wi의 projection Pi를 이용해 wi=Piv라고 한다면,

v=w1+w2++wk

여기에 T를 작용하면

Tv=Tw1+Tw2++Twk=c1P1v+c2P2v++ckPkv=(c1P1+c2P2++ckPk)v

이므로

T=c1P1+c2P2++ckPk

를 만족한다.

 

정리하면,

 

THEOREM            Spectral Decomposition Theorem (Finite Dimension)

 

Finite dimensional vector space V의 linear operator T가 diagonalizable하고 값이 다른 eigenvalue c1, c2, ..., ck를 가진다고 하자. 그러면

 

1. T=c1P1+c2P2++ckPk

 

2. Pi는 projection

 

3. PiPj=δijPi

 

4. I=P1+P2++Pk

 

5. Pi의 image는 eigenvlaue ci의 eigensapce

 

를 만족하는 linear operator P1, P2, ..., Pk가 존재한다.

 

역으로, 1, 2, 3, 4의 조건을 만족하는 linear operator P1, P2, ..., Pk가 존재하는 경우 T는 diagonalizable하고 Pi의 image가 eigenvalue ci의 eigenspace가 된다.

 

즉, diagonalizable linear operator T는 vector space V를 eigenspace들로 "겹치지 않게 나눌 수" 있고 위의 성질을 만족하는 각 eigenspace로의 projection operator들이 존재한다고 할 수 있다.