본문 바로가기
Mathematics/다양체(텐서)

[다양체,텐서] 2.1 Tensor Product

by 피그티 2018. 9. 8.

잠시 manifold에 대한 설명을 접어두고 일단 대수학적인 개념들에 대해 살펴보자.

 

두개의 vector space로 새로운 vector space를 얻을 수 있는 방법 중 하나가 tensor product를 이용하는 방법이 있다. 기하학에서는 tangent space와 dual space가 사용될 것이지만, tensor product는 일반적인 vector space들에서 정의된다.

 

 

Tensor Product

 

DEFINITION            Tensor Product

 

Vector space \(V\), \(W\)의 tensor product는 bilinear인

$$ (\vec{v}, \vec{w})~~~,~~\vec{v} \in V ~~,~~ \vec{w} \in W $$

로 구성된 vector space이다. 즉,

$$ (c\vec{v}_1 + \vec{v}_2,\vec{w}) = c(\vec{v}_1,\vec{w})+(\vec{v}_2,\vec{w}) $$

$$ (\vec{v},c\vec{w}_1+\vec{w}_2) = c(\vec{v},\vec{w}_1)+(\vec{v},\vec{w}_2) $$

 

실제로 이러한 space가 존재하는지, 또 유일하게 표현되는지가 문제되나 수학적으로 잘 증명되어있으니 우리 수준에서는 그 특징을 정의로 해도 무방하다. 보통 위에서 얻은 vector space를

$$ V \otimes W $$

라고 쓰고 \((\vec{v},\vec{w})\) 대신에

$$ \vec{v} \otimes \vec{w} $$

로 표기한다. \(V \otimes W\)의 element를 tensor라고 부른다. 이때 \(\vec{v}\otimes \vec{w}\) 처럼 기초가되는 vector space의 vector 하나씩만을 이용해 표시할수 있는경우 pure tensor라고 부른다.

 

일반적인 tensor는 pure tensor가 아니다. 예를 들어, \(\vec{v}_1 \otimes \vec{w}_1 + \vec{v}_2 \otimes \vec{w}_2\) 는 하나씩의 \(\vec{v}\), \(\vec{w}\)를 이용해 \(\vec{v}\otimes \vec{w}\) 의 형태로를 만들 수 없다.

 

 

정의만으로는 tensor가 무엇인지 확실한 이미지가 그려지지 않을 것이다. Tensor의 정의는 map(더 익숙한 말로 하자면 function)에서 시작하므로 map의 관점에서 살펴보자.

 

Vector space \(V\)의 dual space \(V^*\)는 \(V\)에 대한 linear functional의 집합이다. 즉, covector는 vector와 연산하여 real number를 얻어내는 오브젝트이다. 이제 두 vector space \(V\)와 \(W\)에 대한 dual space \(V^*\)와 \(W^*\)의 tensor product \(V^* \otimes W^*\)를 생각해보자.

 

\(V^*\)의 covector \(a\)와 \(W^*\)의 covector \(b\)의 tensor product \(a\otimes b\)는 \(V\)의 vector \(\vec{v}\)와 \(W\)의 vector \(\vec{w}\)를 받아

$$ a\otimes b ~(\vec{v},\vec{w}) = a(\vec{v})b(\vec{w}) $$

이러한 map이 위의 tensor product의 설명이 요구하는 조건을 만족함은 쉽게 보일 수 있다. 또한 covector 각각이 linear하므로

$$ a\otimes b ~(c\vec{v}_1+\vec{v}_2, \vec{w}) =c( a\otimes b ~(\vec{v}_1, \vec{w})) + a\otimes b ~(\vec{v}_2,\vec{w}) $$

$$ a\otimes b ~(\vec{v},c\vec{w}_1+\vec{w}) = c(a\otimes b ~(\vec{v},\vec{w}_1)) + a\otimes b ~(\vec{v},\vec{w}_2) $$

를 만족한다.

 

그러므로 tensor는 기본적으로 여러 vector들을 받아 real number로 대응시키는 map이며 이 때 각각의 vector에 대하여 linearity를 만족하는 map이다. Vector를 covector를 받아 real number로 대응시키는 map으로 생각한다면(double dual \(V^{**}\) ) 이 개념은 vector의 tensor product를 생각했을 때도 유효하다.

 

 

Basis of Tensor Product Space

 

Vector space에서 basis를 찾는 것은 매우 유용하다. 특히 vector나 linear transformation을 행렬로 표현하기 위해서 필요하다.

 

THEOREM            Basis of Tensor Product Space

 

\(n\)-dimensional vector space \(V\)의 basis를

$$ \{\vec{e}_1,\vec{e}_2,\cdots,\vec{e}_n\} $$

\(m\)-dimensional vector space \(W\)의 basis를

$$ \{\vec{f}_1,\vec{f}_2,\cdots,\vec{f}_m\} $$

라고 하면, 각 basis vector들의 tensor product들

$$ \{~\vec{e}_1 \otimes \vec{f}_1~,~\vec{e}_1 \otimes \vec{f}_2~,~\cdots~,~\vec{e}_1 \otimes \vec{f}_m~,~\vec{e}_2 \otimes \vec{f}_1~,~\cdots~,~\vec{e}_n \otimes \vec{f}_m~\} $$

은 \(V\otimes W\)의 basis가 된다.

 

따라서

$$ \dim{(V\otimes W)} = \dim{V} \times \dim{W} $$

이다.

 

그러므로 일반적인 \(V\otimes W\)의 원소 \(X\)는

$$ X=\sum _{i=1} ^n \sum_{j=1} ^m ~X_{ij} ~~\vec{e}_i \otimes \vec{f}_j $$

로 표현된다.

 

 

Tensor Product of Linear Operator

 

Linear operator도 vector space를 이루므로 \(V\)와 \(W\)에 대한 linear operator들의 tensor product도 생각할 수 있다.

 

Linear operator \(T:V\to V\), \(S:W\to W\)에 대하여 \(T\otimes S\)는

$$ \begin{eqnarray} T \otimes S & : & V\otimes W & \to & V\otimes W \\ \\ & & \vec{v} \otimes \vec{w} & \mapsto & T(\vec{v})\otimes S(\vec{w}) \end{eqnarray} $$

인 linear operator로 정의된다.

 

\(V\)의 ordered basis를

$$ \{ \vec{e}_1, \vec{e}_2, \cdots , \vec{e}_n \} $$

\(W\)의 ordered basis를

$$ \{ \vec{f}_1, \vec{f}_2, \cdots, \vec{f}_m \} $$

\(V\otimes W\)의 ordered basis를

$$ \{~ \vec{e}_1 \otimes \vec{f}_1 ~,~ \vec{e}_1 \otimes \vec{f}_2 ~,~ \cdots ~,~ \vec{e}_2 \otimes \vec{f}_1 ~,~ \vec{e}_2 \otimes \vec{f}_2 ~,~ \cdots ~,~ \vec{e}_n \otimes \vec{f}_m ~\} $$

그리고 \(T\), \(S\)의 matrix representation을

$$ [T] = \begin{bmatrix} t_{11} & t_{12} & \cdots & t_{1n} \\ t_{21} & t_{22} & \cdots & t_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ t_{n1} & t_{n2} & \cdots & t_{nn} \end{bmatrix} $$

$$ [S] = \begin{bmatrix} s_{11} & s_{12} & \cdots & s_{1m} \\ s_{21} & s_{22} & \cdots & s_{2m} \\ \vdots & \vdots & \ddots & \vdots \\ s_{m1} & s_{m2} & \cdots & s_{mm} \end{bmatrix} $$

라고하면, \(T\otimes S\)의 matrix representaion은

$$ \begin{eqnarray} [T\otimes S] & = & \begin{bmatrix} t_{11}[S] & t_{12}[S] & \cdots & t_{1n}[S] \\ t_{21}[S] & t_{22}[S] & \cdots & t_{2n}[S] \\ \vdots & \vdots & \ddots & \vdots \\ t_{n1}[S] & t_{n2}[S] & \cdots & t_{nn}[S] \end{bmatrix} \\ \\ & = & \begin{bmatrix} t_{11}s_{11} & \cdots & t_{11}s_{1m} & | & \cdots & | & t_{1n}s_{11} & \cdots & t_{1n}s_{1m} \\ \vdots & \ddots & \vdots & | & \cdots & | & \vdots & \ddots & \vdots \\ t_{11}s_{m1} & \cdots & t_{11}s_{mm} & | & \cdots & | & t_{1n}s_{m1} & \cdots & t_{1n}s_{mm} \\ --- & --- & --- & + & -- & + & --- & --- & --- \\ \vdots & \vdots & \vdots & | & \ddots & | & \vdots & \vdots & \vdots \\ --- & --- & --- & + & -- & + & --- & --- & --- \\ t_{n1}s_{11} & \cdots & t_{n1}s_{1m} & | & \cdots & | & t_{nn}s_{11} & \cdots & t_{nn}s_{1m} \\ \vdots & \ddots & \vdots & | & \cdots & | & \vdots & \ddots & \vdots \\ t_{n1}s_{m1} & \cdots & t_{n1}s_{mm} & | & \cdots & | & t_{nn}s_{m1} & \cdots & t_{nn}s_{mm} \end{bmatrix} \end{eqnarray} $$

로 matrix tensor product와 같은 결과를 얻는다.

 

 

Covariant Tensors, Contravariant Tensors

 

일반적으로 기하학에서는 vector space와 그에 대한 dual space를 이용하여 tensor를 만든다.

 

Tensor product 정의로 여러개의 vector space를 tensor product 할 수 있다. 3개 이상의 vector space를 tsnsor product 할 때 결합 순서에 따라 다른 space를 얻으나 isomorphic하므로 결합 순서는 문제되지 않는다. 즉, \(V\otimes (W\otimes X)\)와 \((V\otimes W)\otimes X\)와 똑같다고 생각해도 된다. 기하학에서 vector space와 dual space를 사용할 때는 보통 \(V^* \otimes \cdots \otimes V \otimes \cdots \) 순서로 표현한다. 책에 따라서 \(V\)의 \(k\)번 tensor product를 \(V^{\otimes k}\)로 표현하는 경우도 있다. 

 

Vector space와 dual space로 만들 수 있는 가장 일반적인 tensor는 여러개의 vector와 여러개의 covector를 받아 실수로 보내주는 multilinear map이다. 이러한 tensor를 \((p,q)\)-tensor라고 부른다.

 

DEFINITION            \((p,q)\)-Tensors

 

Vector space \(V\)와 dual space \(V^*\)에 대하여, \(p\)개의 vector와 \(q\)개의 covector에 대한 multilinear map \(T:V^p \times {V^*}^q  \to \mathbb{R} \)

$$ T(\cdots,~c \cdot x_1 + x_2 ~, \cdots) = c\cdot T(\cdots, ~x_1~,\cdots) + T(\cdots, ~x_2~,\cdots) $$

을 \((p,q)\)-tensor라고 부른다. 모든 \((p,q)\)-tensor들의 집합을 \(V^* \otimes \cdots \otimes V \otimes \) 대신 \(\mathcal{T}^{p,q}(V^*,V)\) 로 표현한다.

 

만약 vector들만의 map인 경우(즉, \(q=0\))에는 특별히 covariant tensor라고 부른다. Covector들만의 map인 경우(\(p=0\))에는 contravariant tensor라고 부른다.

 

DEFINITION            Covariant Tensors

 

Vector space \(V\)에 대하여, \(k\)개의 vector에 대한 multilinear map \(T:V^k \to \mathbb{R} \)

$$ T(\cdots,~c \cdot x_1 + x_2 ~, \cdots) = c\cdot T(\cdots, ~x_1~,\cdots) + T(\cdots, ~x_2~,\cdots) $$

을 covariant \(k\)-tensor라고 부른다. 모든 covariant \(k\)-tensor들의 집합을 \(\mathcal{T}^k(V^*)\) 로 표현한다.

 

DEFINITION            Contravariant Tensors

 

Vector space \(V\)의 dual space \(V^*\)에 대하여, \(k\)개의 covector에 대한 multilinear map \(T:{V^*}^k \to \mathbb{R}\)

$$ T(\cdots,~c \cdot x_1 + x_2 ~, \cdots) = c\cdot T(\cdots, ~x_1~,\cdots) + T(\cdots, ~x_2~,\cdots) $$

을 contravariant \(k\)-tensor라고 부른다. 모든 contravariant \(k\)-tensor들의 집합을 \(\mathcal{T}^k(V)\) 로 표현한다.

 

 

Basis Notation of Tensors

 

Vector space를 \(V\), 그에 대한 dual space를 \(V^*\)라고 하고, \(V\)의 basis를 \(\{ \vec{e}_1, \vec{e}_2, \cdots , \vec{e}_n \}\), \(V^*\)의 dual basis를 \(\{ \vec{e}^* _1, \vec{e}^* _2, \cdots , \vec{e}^* _n \}\)라고 하자.

 

보통 상대성이론에서는 tensor를 basis expansion 했을 때의 성분으로만 tensor를 표현한다. 보통 vector의 성분은 위첨자를 사용한다. 예를 들어, vector \(\mathbf{v}\)가

$$ \mathbf{v} = \sum _{i=1} ^n ~v^i ~~\vec{e}_i $$

로 basis expansion되는 경우, 위의 표현대신 coefficient만 이용해서

$$ v^i $$

로 표현한다. Covector의 성분은 아래첨자로 나타낸다.

$$ \mathbf{w} = \sum _{j=1} ^n ~w_j ~~\vec{e}^* _j ~~~~~\longrightarrow~~~~~ w_j $$

 

따라서, covariant \(k\)-tensor는

$$ \mathbf{A} = \sum _{i_1, i_2, \cdots, i_k} ~A_{i_1 i_2 \cdots i_k} ~~\vec{e}^* _{i_1} \otimes \vec{e}^* _{i_2} \otimes \cdots \otimes \vec{e}^* _{i_k} ~~~~~\longrightarrow~~~~~ A_{i_1 i_2 \cdots i_k} $$

contravariant \(k\)-tensor는

$$ \mathbf{B} = \sum _{j_1, j_2, \cdots, j_k} ~B^{j_1 j_2 \cdots j_k} ~~\vec{e} _{j_1} \otimes \vec{e} _{j_2} \otimes \cdots \otimes \vec{e} _{j_k} ~~~~~\longrightarrow~~~~~ B^{j_1 j_2 \cdots j_k} $$

일반적인 \((p,q)\)-tensor는

$$ \mathbf{T} = \sum _{\begin{array}{} i_1 , \cdots ,i_p \\ j_1,\cdots ,j_q\end{array}} ~T^{j_1 \cdots j_q} _{i_1 \cdots i_p} ~~\vec{e}^* _{i_1} \otimes \cdots \otimes \vec{e}^* _{i_p} \otimes \vec{e}_{j_1} \otimes \cdots \otimes \vec{e}_{j_q} ~~~~~\longrightarrow~~~~~ T^{j_1 \cdots j_q} _{i_1 \cdots i_p} $$

로 표현한다.

 

이 때, coefficient \(T^{j_1 \cdots j_q} _{i_1 \cdots i_p}\)는 dual basis의 정의로부터([선형대수학] 2.4 Dual Space 참고)

$$ T^{j_1 \cdots j_q} _{i_1 \cdots i_p} ~=~ T(\vec{e}_{i_1} ,\cdots, \vec{e}_{i_p}, \vec{e}^* _{j_1}, \cdots, \vec{e}^* _{j_q}) $$

임을 알 수 있다.