Property of Eigenspaces
Finite dimensional vector space \(V\)의 linear operator \(T\)의 (값이 다른) eigenvalue들을 \(c_1\), \(c_2\), ..., \(c_k\)라고 하자.(즉, \(i\ne j\)이면, \(c_i\ne c_j\)) Vector \(\mathbf{v}_i\)와 \(\mathbf{v}_j\)를 각각 eigenvalue \(c_i\)와 \(c_j\)에 대한 eigenvector라고 하면, 이 vector들은 linearly independent하다. 이를 증명하기 위해서,
$$ f_i(x)=\frac{x-c_j}{c_i-c_j} $$
$$ f_j(x)=\frac{x-c_i}{c_j-c_i} $$
라고 하자. 만약
$$ \alpha_i \mathbf{v}_i + \alpha_j \mathbf{v}_j = \mathbf{0} $$
이면,
$$ \mathbf{0}=f_i(T)\mathbf{0}=f_i(T)(\alpha_i \mathbf{v}_i + \alpha_j \mathbf{v}_j)=\alpha_i f_i(T)\mathbf{v}_i + \alpha_j f_i(T)\mathbf{v}_j = \alpha_i \mathbf{v}_i $$
이므로 \(\alpha_i=0\)이다. 같은 방식으로
$$ \mathbf{0}=f_j(T)(\alpha_i \mathbf{v}_i + \alpha_j \mathbf{v}_j)=\alpha_j \mathbf{v}_j $$
로부터 \(\alpha_j=0\)이다. 따라서 \(\mathbf{v}_i\)와 \(\mathbf{v}_j\)는 linearly independent하다. 그러므로 \(c_i\)와 \(c_j\)에 대한 eigenspace를 각각 \(W_i\), \(W_j\)라 하고 basis를 \(\mathcal{B}_i\), \(\mathcal{B}_j\)라고 하면, \(\mathcal{B}_i\cup \mathcal{B}_j\)는 linearly independent하므로(이를 간단히 \(W_i\)와 \(W_j\)가 linearly independent하다고 부른다) \(W_i\)와 \(W_j\)로 span되는 subspace \(W\)의 basis는
$$ \mathcal{B}=\mathcal{B}_i \cup \mathcal{B}_j $$
가 된다. 따라서
$$ \dim{(W)}=\dim{(W_i)}+\dim{(W_j)} $$
를 만족한다. 이 특징은 (선형대수학) 3.3 Direct Sum Decomposition에서 다시 정의될 것이다.
Diagonalizable Operators
Linear operator \(T\)를 matrix 표현
$$ \begin{bmatrix} a_1 & 0 & \cdots & 0 \\ 0 & a_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & a_n \end{bmatrix} $$
로 표현하는 것은
$$ T\mathbf{e}_k = a_k\mathbf{e}_k $$
를 만족하는 basis \(\{\mathbf{e}_1,\cdots,\mathbf{e}_n\}\)를 찾는 것과 같다. 이러한 basis를 찾을 수 있는 경우 linear operator는 diagonalizable하다고 한다.
Finite dimensional vector space \(V\)의 모든 basis vector가 linear operator \(T\)의 eigenvector인 basis가 존재하면 \(T\)를 diagonalizable하다고 부른다.
\(T\)가 diagonalizable한 경우 basis의 순서를 적절히 조절하여 같은 eigenvalue들이 연속적으로 나오게 만들 수 있다. 예를 들어, \(c_1\)에 대한 eigenspace의 dimension이 2이면,
$$ \begin{bmatrix} c_1 & 0 & 0 & \cdots & 0 \\ 0 & c_1 & 0 & \cdots & 0 \\ 0 & 0 & c_2 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & c_k \end{bmatrix} $$
로 표현된다. 따라서, diagonalizable한 \(T\)의 charateristic polynomial
$$ \det{(xI-T)}=(x-c_1)^{d_1}(x-c_2)^{d_2}\cdots (x-c_k)^{d_k} $$
에서 \(d_i\)는 eigenspace \(W_i\)의 dimension과 같다.
$$ d_i=\dim{(W_i)} $$
그리고 diagonalizable의 정의로부터 \(V\)가 eigenspace들로 span되면 \(T\)는 diagonalizable하다. 따라서,
$$ \dim{(V)}=\dim{(W_1)}+\dim{(W_2)}+\cdots+\dim{(W_k)} $$
이면 \(T\)는 diagonalizable하다. 이를 정리하면,
Finite dimensional vector space \(V\)의 linear operator \(T\)에 대하여 다음은 동치이다.
1. \(T\)는 diagonalizable하다.
2. \(T\)의 characteristic polynomial
$$ \det{(xI-T)}=(x-c_1)^{d_1}(x-c_2)^{d_2}\cdots (x-c_k)^{d_k} $$
에서 \(d_i\)는 eigenspace \(W_i\)의 dimension과 같다.
3. \(\dim{(V)}=\dim{(W_1)}+\dim{(W_2)}+\cdots+\dim{(W_k)}\)
'Mathematics > 선형대수' 카테고리의 다른 글
(선형대수학) 3.4-(1) Example: Diagonalization of Matrices (0) | 2018.07.30 |
---|---|
(선형대수학) 3.4 Minimal Polynomial (4) | 2018.07.30 |
(선형대수학) 3.3 Direct Sum Decomposition (2) | 2018.07.30 |
(선형대수학) 3.1 Eigenvalue, Eigenvector, Eigenspace (0) | 2018.07.22 |
(선형대수학) 2.6 Kernel of Linear Transformation (0) | 2018.07.22 |
(선형대수학) 2.5-(2) Example: Rotation (2) | 2018.07.21 |