잠시 manifold에 대한 설명을 접어두고 일단 대수학적인 개념들에 대해 살펴보자.
두개의 vector space로 새로운 vector space를 얻을 수 있는 방법 중 하나가 tensor product를 이용하는 방법이 있다. 기하학에서는 tangent space와 dual space가 사용될 것이지만, tensor product는 일반적인 vector space들에서 정의된다.
Tensor Product
Vector space \(V\), \(W\)의 tensor product는 bilinear인
$$ (\vec{v}, \vec{w})~~~,~~\vec{v} \in V ~~,~~ \vec{w} \in W $$
로 구성된 vector space이다. 즉,
$$ (c\vec{v}_1 + \vec{v}_2,\vec{w}) = c(\vec{v}_1,\vec{w})+(\vec{v}_2,\vec{w}) $$
$$ (\vec{v},c\vec{w}_1+\vec{w}_2) = c(\vec{v},\vec{w}_1)+(\vec{v},\vec{w}_2) $$
실제로 이러한 space가 존재하는지, 또 유일하게 표현되는지가 문제되나 수학적으로 잘 증명되어있으니 우리 수준에서는 그 특징을 정의로 해도 무방하다. 보통 위에서 얻은 vector space를
$$ V \otimes W $$
라고 쓰고 \((\vec{v},\vec{w})\) 대신에
$$ \vec{v} \otimes \vec{w} $$
로 표기한다. \(V \otimes W\)의 element를 tensor라고 부른다. 이때 \(\vec{v}\otimes \vec{w}\) 처럼 기초가되는 vector space의 vector 하나씩만을 이용해 표시할수 있는경우 pure tensor라고 부른다.
일반적인 tensor는 pure tensor가 아니다. 예를 들어, \(\vec{v}_1 \otimes \vec{w}_1 + \vec{v}_2 \otimes \vec{w}_2\) 는 하나씩의 \(\vec{v}\), \(\vec{w}\)를 이용해 \(\vec{v}\otimes \vec{w}\) 의 형태로를 만들 수 없다.
정의만으로는 tensor가 무엇인지 확실한 이미지가 그려지지 않을 것이다. Tensor의 정의는 map(더 익숙한 말로 하자면 function)에서 시작하므로 map의 관점에서 살펴보자.
Vector space \(V\)의 dual space \(V^*\)는 \(V\)에 대한 linear functional의 집합이다. 즉, covector는 vector와 연산하여 real number를 얻어내는 오브젝트이다. 이제 두 vector space \(V\)와 \(W\)에 대한 dual space \(V^*\)와 \(W^*\)의 tensor product \(V^* \otimes W^*\)를 생각해보자.
\(V^*\)의 covector \(a\)와 \(W^*\)의 covector \(b\)의 tensor product \(a\otimes b\)는 \(V\)의 vector \(\vec{v}\)와 \(W\)의 vector \(\vec{w}\)를 받아
$$ a\otimes b ~(\vec{v},\vec{w}) = a(\vec{v})b(\vec{w}) $$
이러한 map이 위의 tensor product의 설명이 요구하는 조건을 만족함은 쉽게 보일 수 있다. 또한 covector 각각이 linear하므로
$$ a\otimes b ~(c\vec{v}_1+\vec{v}_2, \vec{w}) =c( a\otimes b ~(\vec{v}_1, \vec{w})) + a\otimes b ~(\vec{v}_2,\vec{w}) $$
$$ a\otimes b ~(\vec{v},c\vec{w}_1+\vec{w}) = c(a\otimes b ~(\vec{v},\vec{w}_1)) + a\otimes b ~(\vec{v},\vec{w}_2) $$
를 만족한다.
그러므로 tensor는 기본적으로 여러 vector들을 받아 real number로 대응시키는 map이며 이 때 각각의 vector에 대하여 linearity를 만족하는 map이다. Vector를 covector를 받아 real number로 대응시키는 map으로 생각한다면(double dual \(V^{**}\) ) 이 개념은 vector의 tensor product를 생각했을 때도 유효하다.
Basis of Tensor Product Space
Vector space에서 basis를 찾는 것은 매우 유용하다. 특히 vector나 linear transformation을 행렬로 표현하기 위해서 필요하다.
\(n\)-dimensional vector space \(V\)의 basis를
$$ \{\vec{e}_1,\vec{e}_2,\cdots,\vec{e}_n\} $$
\(m\)-dimensional vector space \(W\)의 basis를
$$ \{\vec{f}_1,\vec{f}_2,\cdots,\vec{f}_m\} $$
라고 하면, 각 basis vector들의 tensor product들
$$ \{~\vec{e}_1 \otimes \vec{f}_1~,~\vec{e}_1 \otimes \vec{f}_2~,~\cdots~,~\vec{e}_1 \otimes \vec{f}_m~,~\vec{e}_2 \otimes \vec{f}_1~,~\cdots~,~\vec{e}_n \otimes \vec{f}_m~\} $$
은 \(V\otimes W\)의 basis가 된다.
따라서
$$ \dim{(V\otimes W)} = \dim{V} \times \dim{W} $$
이다.
그러므로 일반적인 \(V\otimes W\)의 원소 \(X\)는
$$ X=\sum _{i=1} ^n \sum_{j=1} ^m ~X_{ij} ~~\vec{e}_i \otimes \vec{f}_j $$
로 표현된다.
Tensor Product of Linear Operator
Linear operator도 vector space를 이루므로 \(V\)와 \(W\)에 대한 linear operator들의 tensor product도 생각할 수 있다.
Linear operator \(T:V\to V\), \(S:W\to W\)에 대하여 \(T\otimes S\)는
$$ \begin{eqnarray} T \otimes S & : & V\otimes W & \to & V\otimes W \\ \\ & & \vec{v} \otimes \vec{w} & \mapsto & T(\vec{v})\otimes S(\vec{w}) \end{eqnarray} $$
인 linear operator로 정의된다.
\(V\)의 ordered basis를
$$ \{ \vec{e}_1, \vec{e}_2, \cdots , \vec{e}_n \} $$
\(W\)의 ordered basis를
$$ \{ \vec{f}_1, \vec{f}_2, \cdots, \vec{f}_m \} $$
\(V\otimes W\)의 ordered basis를
$$ \{~ \vec{e}_1 \otimes \vec{f}_1 ~,~ \vec{e}_1 \otimes \vec{f}_2 ~,~ \cdots ~,~ \vec{e}_2 \otimes \vec{f}_1 ~,~ \vec{e}_2 \otimes \vec{f}_2 ~,~ \cdots ~,~ \vec{e}_n \otimes \vec{f}_m ~\} $$
$$ [T] = \begin{bmatrix} t_{11} & t_{12} & \cdots & t_{1n} \\ t_{21} & t_{22} & \cdots & t_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ t_{n1} & t_{n2} & \cdots & t_{nn} \end{bmatrix} $$
$$ [S] = \begin{bmatrix} s_{11} & s_{12} & \cdots & s_{1m} \\ s_{21} & s_{22} & \cdots & s_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ s_{m1} & s_{m2} & \cdots & s_{mm} \end{bmatrix} $$
라고하면, \(T\otimes S\)의 matrix representaion은
$$ \begin{eqnarray} [T\otimes S] & = & \begin{bmatrix} t_{11}[S] & t_{12}[S] & \cdots & t_{1n}[S] \\ t_{21}[S] & t_{22}[S] & \cdots & t_{2n}[S] \\ \vdots & \vdots & \ddots & \vdots \\ t_{n1}[S] & t_{n2}[S] & \cdots & t_{nn}[S] \end{bmatrix} \\ \\ & = & \begin{bmatrix} t_{11}s_{11} & \cdots & t_{11}s_{1m} & | & \cdots & | & t_{1n}s_{11} & \cdots & t_{1n}s_{1m} \\ \vdots & \ddots & \vdots & | & \cdots & | & \vdots & \ddots & \vdots \\ t_{11}s_{m1} & \cdots & t_{11}s_{mm} & | & \cdots & | & t_{1n}s_{m1} & \cdots & t_{1n}s_{mm} \\ --- & --- & --- & + & -- & + & --- & --- & --- \\ \vdots & \vdots & \vdots & | & \ddots & | & \vdots & \vdots & \vdots \\ --- & --- & --- & + & -- & + & --- & --- & --- \\ t_{n1}s_{11} & \cdots & t_{n1}s_{1m} & | & \cdots & | & t_{nn}s_{11} & \cdots & t_{nn}s_{1m} \\ \vdots & \ddots & \vdots & | & \cdots & | & \vdots & \ddots & \vdots \\ t_{n1}s_{m1} & \cdots & t_{n1}s_{mm} & | & \cdots & | & t_{nn}s_{m1} & \cdots & t_{nn}s_{mm} \end{bmatrix} \end{eqnarray} $$
로 matrix tensor product와 같은 결과를 얻는다.
Covariant Tensors, Contravariant Tensors
일반적으로 기하학에서는 vector space와 그에 대한 dual space를 이용하여 tensor를 만든다.
Tensor product 정의로 여러개의 vector space를 tensor product 할 수 있다. 3개 이상의 vector space를 tsnsor product 할 때 결합 순서에 따라 다른 space를 얻으나 isomorphic하므로 결합 순서는 문제되지 않는다. 즉, \(V\otimes (W\otimes X)\)와 \((V\otimes W)\otimes X\)와 똑같다고 생각해도 된다. 기하학에서 vector space와 dual space를 사용할 때는 보통 \(V^* \otimes \cdots \otimes V \otimes \cdots \) 순서로 표현한다. 책에 따라서 \(V\)의 \(k\)번 tensor product를 \(V^{\otimes k}\)로 표현하는 경우도 있다.
Vector space와 dual space로 만들 수 있는 가장 일반적인 tensor는 여러개의 vector와 여러개의 covector를 받아 실수로 보내주는 multilinear map이다. 이러한 tensor를 \((p,q)\)-tensor라고 부른다.
Vector space \(V\)와 dual space \(V^*\)에 대하여, \(p\)개의 vector와 \(q\)개의 covector에 대한 multilinear map \(T:V^p \times {V^*}^q \to \mathbb{R} \)
$$ T(\cdots,~c \cdot x_1 + x_2 ~, \cdots) = c\cdot T(\cdots, ~x_1~,\cdots) + T(\cdots, ~x_2~,\cdots) $$
을 \((p,q)\)-tensor라고 부른다. 모든 \((p,q)\)-tensor들의 집합을 \(V^* \otimes \cdots \otimes V \otimes \) 대신 \(\mathcal{T}^{p,q}(V^*,V)\) 로 표현한다.
만약 vector들만의 map인 경우(즉, \(q=0\))에는 특별히 covariant tensor라고 부른다. Covector들만의 map인 경우(\(p=0\))에는 contravariant tensor라고 부른다.
Vector space \(V\)에 대하여, \(k\)개의 vector에 대한 multilinear map \(T:V^k \to \mathbb{R} \)
$$ T(\cdots,~c \cdot x_1 + x_2 ~, \cdots) = c\cdot T(\cdots, ~x_1~,\cdots) + T(\cdots, ~x_2~,\cdots) $$
을 covariant \(k\)-tensor라고 부른다. 모든 covariant \(k\)-tensor들의 집합을 \(\mathcal{T}^k(V^*)\) 로 표현한다.
Vector space \(V\)의 dual space \(V^*\)에 대하여, \(k\)개의 covector에 대한 multilinear map \(T:{V^*}^k \to \mathbb{R}\)
$$ T(\cdots,~c \cdot x_1 + x_2 ~, \cdots) = c\cdot T(\cdots, ~x_1~,\cdots) + T(\cdots, ~x_2~,\cdots) $$
을 contravariant \(k\)-tensor라고 부른다. 모든 contravariant \(k\)-tensor들의 집합을 \(\mathcal{T}^k(V)\) 로 표현한다.
Basis Notation of Tensors
Vector space를 \(V\), 그에 대한 dual space를 \(V^*\)라고 하고, \(V\)의 basis를 \(\{ \vec{e}_1, \vec{e}_2, \cdots , \vec{e}_n \}\), \(V^*\)의 dual basis를 \(\{ \vec{e}^* _1, \vec{e}^* _2, \cdots , \vec{e}^* _n \}\)라고 하자.
보통 상대성이론에서는 tensor를 basis expansion 했을 때의 성분으로만 tensor를 표현한다. 보통 vector의 성분은 위첨자를 사용한다. 예를 들어, vector \(\mathbf{v}\)가
$$ \mathbf{v} = \sum _{i=1} ^n ~v^i ~~\vec{e}_i $$
로 basis expansion되는 경우, 위의 표현대신 coefficient만 이용해서
$$ v^i $$
로 표현한다. Covector의 성분은 아래첨자로 나타낸다.
$$ \mathbf{w} = \sum _{j=1} ^n ~w_j ~~\vec{e}^* _j ~~~~~\longrightarrow~~~~~ w_j $$
따라서, covariant \(k\)-tensor는
$$ \mathbf{A} = \sum _{i_1, i_2, \cdots, i_k} ~A_{i_1 i_2 \cdots i_k} ~~\vec{e}^* _{i_1} \otimes \vec{e}^* _{i_2} \otimes \cdots \otimes \vec{e}^* _{i_k} ~~~~~\longrightarrow~~~~~ A_{i_1 i_2 \cdots i_k} $$
contravariant \(k\)-tensor는
$$ \mathbf{B} = \sum _{j_1, j_2, \cdots, j_k} ~B^{j_1 j_2 \cdots j_k} ~~\vec{e} _{j_1} \otimes \vec{e} _{j_2} \otimes \cdots \otimes \vec{e} _{j_k} ~~~~~\longrightarrow~~~~~ B^{j_1 j_2 \cdots j_k} $$
일반적인 \((p,q)\)-tensor는
$$ \mathbf{T} = \sum _{\begin{array}{} i_1 , \cdots ,i_p \\ j_1,\cdots ,j_q\end{array}} ~T^{j_1 \cdots j_q} _{i_1 \cdots i_p} ~~\vec{e}^* _{i_1} \otimes \cdots \otimes \vec{e}^* _{i_p} \otimes \vec{e}_{j_1} \otimes \cdots \otimes \vec{e}_{j_q} ~~~~~\longrightarrow~~~~~ T^{j_1 \cdots j_q} _{i_1 \cdots i_p} $$
로 표현한다.
이 때, coefficient \(T^{j_1 \cdots j_q} _{i_1 \cdots i_p}\)는 dual basis의 정의로부터([선형대수학] 2.4 Dual Space 참고)
$$ T^{j_1 \cdots j_q} _{i_1 \cdots i_p} ~=~ T(\vec{e}_{i_1} ,\cdots, \vec{e}_{i_p}, \vec{e}^* _{j_1}, \cdots, \vec{e}^* _{j_q}) $$
임을 알 수 있다.
'Mathematics > 다양체(텐서)' 카테고리의 다른 글
[다양체,텐서] 2.4 Differential Forms, Exterior Derivatives (0) | 2018.09.08 |
---|---|
[다양체,텐서] 2.3 Tensor Fields (0) | 2018.09.08 |
[다양체,텐서] 2.2 Symmertric Tensors, Antisymmetric Tensors, Exterior Algebra (0) | 2018.09.08 |
[다양체,텐서] 1.8 Orientability (0) | 2018.09.08 |
[다양체,텐서] 1.7 Submanifold (0) | 2018.08.18 |
[다양체, 텐서] 1.6 Integral Curve (0) | 2018.08.18 |