\(n\)-dimensional vector space \(V\)의 linear operator \(T\)가 diagonalizable하다면, \(T\)의 minimal polynomial \(p(x)\)는 \(T\)의 eigenvalue들이 해가되는 1차 다항식들의 곱이 되고
$$ p(x)=(x-c_1)\cdots(x-c_k) $$
\(V\)는 eigenvalue \(c_i\)에 대한 eigenspace
$$ W_i = \{\mathbf{v}\in V~|~T\mathbf{v}=c_i\mathbf{v}\} $$
의 direct sum이 된다.
$$ V=W_1\oplus \cdots \oplus W_k $$
\(W_i\)의 vector \(\mathbf{v}\)는 \(T\mathbf{v}=c_i\mathbf{v}\)이므로
$$ (T-c_iI)\mathbf{v}=\mathbf{0} $$
즉, \(W_i\)는 \((T-c_iI)\)의 null space가 된다.((선형대수학) 2.6 Kernel of Linear Transformation 참고) 이 사실들을 종합하면, linear operator \(T\)가 diagonalizable하면, \(V\)는 minimal polynomial \(p(T)\)의 인수 (T-c_i I)의 null space들의 direct sum이 된다.
Diagonalizable하지 않은 일반적인 linear operator의 경우 minimal polynomial은 eigenvalue들을 해로 가지는 1차 다항식들의 곱으로 표현되지 않는다. 그렇지만 \(V\)는 minimal polynomial의 인수로 만든 null space들의 direct sum으로 표현된다는 점은 여전히 성립한다. 이를 primary decomposition theorem이라고 부른다.
Finite-dimensional vector space \(V\)의 linear operator \(T\)의 minimal polynomial \(p\)가 인수분해가 더이상 되지 않는 polynomial \(p_i)들의 곱
$$ p=p_1 ^{r_1}p_2 ^{r_2} \cdots p_k ^{r_j} $$
로 표현된다고 하자. \(W_i\)를 \(p_i(T)^{r_i}\)의 null space라고 한다면
① \(W_i\)는 \(T\)에 대하여 invariant하고
② \(V=W_1\oplus W_2 \oplus \cdots \oplus W_k\)이다.
②로부터 \(V\)의 basis를 \(W_i\)들의 basis로 설정할 수 있으므로, ①에 의해 이 basis에서 \(T\)의 matrix 표현이 block matrix가 된다.
\([T]=\begin{bmatrix} T_1 & 0 & \cdots & 0 \\ 0 & T_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & T_k \end{bmatrix}\), \(T_i\)는 \(m_i\times m_i\) matrix
이 때 block matrix의 크기 \(m_i=\dim{(W_i)}\)는 \(r_i\)와는 상관없는 값이다.
Primary Decomposition Theorem을 증명하는 것은 (선형대수학) 3.3 Direct Sum Decomposition에서 본 것과 같이 \(W_i\)를 image로 가지는 projection operator를 찾는 것이다. Polynomial
$$ f_i=\frac{p}{p_i ^{r_i}} $$
를 정의하면, 각 \(f_i\)들은 서로소이므로 서로소의 정의로부터
$$ \sum_{i=1} ^k f_ig_i =1 $$
인 polynomial \(g_i\)들이 존재한다. 또한 \(i\ne j\)이면, \(f_if_j\)는 \(p\)의 인수를 모두 포함하므로 \(p\)로 나누어진다. 이제 linear operator
$$ P_i=f_i(T)g_i(T) $$
를 정의하면,
$$ P_1+P_2+\cdots+P_k=\sum_{i=1} ^k f_i(T)g_i(T)=I $$
$$ P_iP_j =f_i(T)g_i(T)f_j(T)g_j(T)=0 $$
이다. 또한 \(\mathbf{w}_i \in W_i\)라고 하면,
$$ P_i \mathbf{w}_i=\mathbf{w_i} $$
$$ P_j \mathbf{w}_i=\mathbf{0} $$
이다. 따라서 primary decomposition theorem은 성립한다.
만약 minimal polynomial가
$$ p=(x-c_1)^{r_1}(x-c_2)^{r_2}\cdots(x-c_k)^{r_k} $$
와 같이 인수가 모두 1차 다항식이라면 characteristic polynomial은 minimal polynomial과 같은 해를 가지므로 \(c_i\)는 eigenvalue가 된다. 이제 eigenspace \(W_i\)로의 projection \(E_i\)를 이용해 새로운 linear operator
$$ D=c_1E_1+c_2E_2+\cdots+c_kE_k $$
를 정의하면 \(D\)는 (선형대수학) 3.3 Direct Sum Decomposition의 결론에 의해 diagonalizable이 된다. 즉, eigenvalue \(c_i\)에 대한 eigenvector \(\mathbf{w}_i \in W_i\)에 대하여,
$$ D\mathbf{w}_i = (c_1E_1+c_2E_2+\cdots+c_kE_k)\mathbf{w}_i = c_i\mathbf{w}_i $$
이므로,
$$ \begin{array}{} ~~~~~~~~~~\scriptstyle{(m_1 \times m_1)}~~~~~~~~~~~~~~~~~~\scriptstyle{(m_2 \times m_2)}~~~~~~~~~~~~~~~\cdots \\ [D] = \begin{bmatrix} c_1 & & & & & & & \\ & \ddots & & & & & & \\ & & c_1 & & & & & \\ & & & c_2 & & & & \\ & & & & \ddots & & & \\ & & & & & c_2 & & \\ & & & & & & \ddots & \\ & & & & & & & c_k \end{bmatrix} \end{array} $$
또 새로운 linear operator
$$ N=T-D=T(E_1+\cdots+E_k)-D=(T-c_1I)E_1+\cdots+(T-c_kI)E_k $$
를 정의하면,
$$ E_iE_i=E_i $$
$$ E_iE_j=0 $$
라는 점을 이용하여
$$ N^r=(T-c_1I)^rE_1+\cdots+(T-c_kI)^rE_k $$
가 된다. 만약 \(r\)이 모든 \(r_i\)보다 크다면, \(E_i\)의 image가 \((T-c_iI)^{r_i}\)의 null space이므로 \(N^r=0\)이 된다. 이렇게 승수를 했을 경우 0이 되는 operator를 nilpotent라고 부른다.
Vector space \(V\)의 linear operator \(T\)에 대하여 \(T^r=0\)인 자연수 \(r\)이 존재하면 \(T\)를 nilpotent라고 부른다.
\(N\)을 위와 같이 정의하면, eigenvalue \(c_i\)에 대한 eigenvector \(\mathbf{w}_i \in W_i\)에 대하여, \(N\mathbf{w}_i \in W_i\)이므로 \(N\)의 matrix representation은 block diagonal matrix가 된다.
scalar가 complex number와 같이 algebraically closed 성질을 가진다면 모든 polynomial은 항상 1차 polynomial들로 인수분해 되므로 모든 linear operator \(T\)는 diagonalizable operator \(D\)와 nilpotent (block matrix) \(N\)으로 분해된다.
$$ T=D+N $$
'Mathematics > 선형대수' 카테고리의 다른 글
(선형대수학) 4.2 Norm (0) | 2018.08.01 |
---|---|
(선형대수학) 4.1 Inner Product Space (0) | 2018.08.01 |
(선형대수학) 3.8 Jordan Normal Form (0) | 2018.08.01 |
(선형대수학) 3.6 Triangular Form (3) | 2018.07.30 |
(선형대수학) 3.5 Simultaneously Diagonalizable, Commutator (4) | 2018.07.30 |
(선형대수학) 3.4-(1) Example: Diagonalization of Matrices (0) | 2018.07.30 |