2.1 랜덤 변수의 변환 (1) Transformations of Random Variables (1)에서 랜덤 변수 1개에 대한 확률 분포의 변환에 대하여 살펴보았다. 이번 페이지에서는 랜덤 변수 2개에 대한 확률 분포의 변환에 대하여 살펴보자.
#Basic Idea
2차원 랜덤 벡터 \((X,Y)\) 에 대하여, 다음과 같이 정의되는 새로운 2차원 랜덤 벡터 \((U,V)\) 를 생각해보자.
\[ \begin{align*} U &= g_1(X,Y) \\ \\ V &= g_2(X,Y) \end{align*} \]
우리가 원하는 것은 관심이 있는 \((U,V)\) 의 사건 \(B\) 의 확률을 기존에 알고 있는 랜덤 벡터 \((X,Y)\) 의 확률로 표현하는 것이다. \((U,V)\) 가 사건 \(B\) 에 속해 있다는 것은, \((X,Y)\) 를 변환한 후에는 \(B\) 에 들어가 있다는 것과 같으므로,
\[ P((U,V) \in B) = P((X,Y) \in A) ~~~~~\text{where } A=\{ (x,y) ~:~ (g_1(x,y),g_2(x,y)) \in B \} \]
가 되어야 한다.
#Discrete Case
2차원 랜덤 벡터 \((X,Y)\) 가 discrete한 경우, 확률은 joint pmf로 직접 표현이 된다. 특히 우리가 관심이 있는 것은, \(U=u\), \(V=v\) 일 확률이므로,
\[ A_{u,v} = \{ (x,y) ~:~ g_1(x,y) = u ~\text{and } g_2(x,y) = v \} \]
로 정의하면, \((U,V)\) 의 joint pdf는
\[ f_{U,V} (u,v) = P(U=u, V=v) = P((X,Y) \in A_{u,v}) = \sum _{(x,y)\in A_{u,v}} f_{X,Y} (x,y) \]
가 된다.
Example
\(X \sim \text{Pois}(\lambda)\), \(Y \sim \text{Pois}(\eta)\) 가 서로 independent하다고 하면, \(X\) 와 \(Y\) 의 joint pmf는
\[ f_{X,Y}(x,y) = \frac{\lambda ^x}{x!} e^{-\lambda} \frac{\eta ^y}{y!} e^{-\eta} ~~~~~~ \text{where } x=0,1,2, \cdots ~,~ y=0,1,2, \cdots \]
가 된다. 이제 새로운 랜덤 변수 \(U=X+Y\) 와 \(V=Y\) 를 정의해보자. 위의 논의에서 사용한 표현대로 하면,
\[ \begin{align*} g_1(x,y) &= x+y \\ \\ g_2(x,y) &= y \end{align*} \]
가 된다. 주어진 \(u\), \(v\) 에 대하여 \(A_{u,v}\) 를 구하면,
\[ A_{u,v} = \{ (u-v,v) \} \]
즉, 하나의 점 밖에 없다. 따라서,
\[ \begin{align*} f_{U,V} (u,v) &= \sum _{(x,y) \in A_{u,v}} f_{X,Y} (x,y) = f_{X,Y} (u-v,v) \\ &= \frac{\lambda ^{u-v}}{(u-v)!} e^{-\lambda} \frac{\eta ^v}{v!} e^{-\eta} ~~~~~~ \text{where } v=0,1,2,...~,~u=v,v+1,v+2,\cdots \end{align*} \]
이 joint pmf에서 \(V\) 는 정의 상 \(Y\) 와 같으니 \(U\) 의 marginal pmf를 구해보자. 주어진 \(u\) 에 대하여 가능한 \(v\) 는 0부터 \(u\) 까지만 가능하므로, \(U\) 의 marginal pmf는
\[ \begin{align*} f_U(u) &= \sum _{v=0} ^u f_{U,V} (u,v) \\ &= e^{-(\lambda + \eta)} \sum _{v=0} ^u \frac{1}{(u-v)!v!} \lambda^{u-v} \eta ^v \\ &= \frac{1}{u!} e^{-(\lambda + \eta)} \sum _{v=0} ^u \frac{u!}{(u-v)!v!} \lambda^{u-v} \eta ^v \\ &= \frac{1}{u!} e^{-(\lambda + \eta)} \sum _{v=0} ^u \left( \begin{array}{c} u \\ v \end{array} \right) \lambda^{u-v} \eta^v \end{align*} \]
맨 마지막 항은 3.2 베르누이 분포, 이항 분포 Bernoulli Distribution, Binomial Distribution에서 살펴본 이항 정리의 우변과 같으므로
\[ f_U (u) = \frac{(\lambda + \eta)^u}{u!} e^{-(\lambda + \eta)} \]
를 얻을 수 있다. 이 pmf는 parameter가 \(\lambda+\eta\) 인 Poisson distribution이다. 따라서 다음과 같은 결론을 얻을 수 있다.
서로 independent인 랜덤 변수 \(X \sim \text{Pois}(\lambda)\), \(Y \sim \text{Pois}(\eta)\) 의 합은 Poisson distribution을 따른다. 즉,
\[ X+Y \sim \text{Pois}(\lambda + \eta) \]
#Continuous Case
One-to-One Transformation Case
2.1 랜덤 변수의 변환 (1) Transformations of Random Variables (1)에서 1개의 continuous 랜덤 변수 변환이 one-to-one 인 경우 pdf의 변환은 다음과 같은 식으로 주어졌었다.
\[ \begin{equation} f_Y(y) = f_X(g^{-1}(y)) \left| \frac{d}{dy}g^{-1}(y) \right| \label{transform} \end{equation} \]
다차원 랜덤 벡터의 경우에는 식 \(\eqref{transform}\)을 다변수 함수로 바꾸면 된다. 다만 마지막의 미분항은, cdf를 미분하는 과정에서 생기는 항이므로, 적분에서 다변수 함수의 change of variable을 할 때 도입이 되는 Jacobian을 사용해야 한다. 따라서, one-to-one 변환의 경우에는 joint pdf는 다음과 같은 식으로 변환이 된다.
THEOREM
\[ \begin{equation} f_{U,V} (u,v) = f_{X,Y} (g_1 ^{-1} (u,v), g_2 ^{-1} (u,v)) \left| \begin{array}{cc} \frac{\partial x}{\partial u} & \frac{\partial x}{\partial v} \\ \frac{\partial y}{\partial u} & \frac{\partial y}{\partial v} \end{array} \right| \label{2dtransform} \end{equation} \]
Example
\(X \sim \text{Beta}(\alpha,\beta)\), \(Y \sim \text{Beta}(\alpha+\beta, \gamma)\) 가 서로 independent하다고 하자. 그러면 joint pdf는
\[ f_{X,Y} (x,y) = \frac{1}{B(\alpha,\beta)} x^{\alpha -1} (1-x)^{\beta -1} \frac{1}{B(\alpha+\beta,\gamma)} y^{\alpha+\beta -1} (1-y)^{\gamma -1} ~~~~~ \text{where } 0<x<1~,~0<y<1 \]
가 된다. 이제 새로운 랜덤 변수 \(U=XY\) 와 \(V=X\) 를 정의해보자. 즉,
\[ \begin{align*} g_1 (x,y) &= xy \\ \\ g_2 (x,y) &= x \end{align*} \]
이 변환은 1-1 함수라는 것을 쉽게 알 수 있다. 즉, 주어진 \((u,v)\) 에 대하여, \(g_1(x,y)=u\), \(g_2(x,y)=v\) 가 되는 \(x\), \(y\)는
\[ \begin{array}{l} x = g_1 ^{-1} (u,v) = v \\ y = g_2 ^{-1} (u,v) = \frac{u}{v} \end{array} ~~~~~~~~ \text{where } ~~ \begin{array}{l} 0<v<1 \\ 0<u<v \end{array} \]
라는 것을 쉽게 알 수 있다. 이 변환에 대한 Jacobian은
\[ J = \det{\left( \begin{array}{cc} \frac{\partial }{\partial u}g_1 ^{-1} (u,v) & \frac{\partial }{\partial v} g_1 ^{-1} (u,v) \\ \frac{\partial}{\partial u} g_2 ^{-1} (u,v) & \frac{\partial}{\partial v} g_2 ^{-1} (u,v) \end{array} \right)} = \det{\left( \begin{array}{cc} 0 & 1 \\ \frac{1}{v} & -\frac{u}{v^2} \end{array} \right)} = -\frac{1}{v} \]
이므로 식 \(\eqref{2dtransform}\)에 대입하면,
\[ f_{U,V}(u,v) = \frac{1}{B(\alpha,\beta)} v^{\alpha -1} (1-v)^{\beta -1} \frac{1}{B(\alpha+\beta,\gamma)} \left(\frac{u}{v}\right)^{\alpha+\beta -1} \left(1-\frac{u}{v}\right)^{\gamma -1} \left| -\frac{1}{v} \right| ~~~~ \text{where } 0<u<v<1\]
당연히 \(V\) 의 marginal pdf는 \(X\) 와 같다. \(U\) 의 marginal pdf는 위 식을 \(v\) 에 대하여 적분하여 얻어진다. 먼저, Beta function의 정의로부터
\[ \frac{1}{B(\alpha,\beta)}\frac{1}{B(\alpha+\beta,\gamma)} = \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}\frac{\Gamma(\alpha+\beta+\gamma)}{\Gamma(\alpha+\beta)\Gamma(\gamma)} = \frac{\Gamma(\alpha+\beta+\gamma)}{\Gamma(\alpha)\Gamma(\beta)\Gamma(\gamma)} \]
그리고 나머지 부분도,
\[ v^{\alpha-1}(1-v)^{\beta-1} \left( \frac{u}{v} \right)^{\alpha+\beta -1} \left(1-\frac{u}{v}\right)^{\gamma-1} \left| -\frac{1}{v} \right| = u^{\alpha-1} \left(\frac{u}{v}-u\right)^{\beta-1} \left(1-\frac{u}{v}\right)^{\gamma-1}\frac{u}{v^2} \]
따라서,
\[ f_U(u) = \int _u ^1 f_{U,V}(u,v)dv = \frac{\Gamma(\alpha+\beta+\gamma)}{\Gamma(\alpha)\Gamma(\beta)\Gamma(\gamma)} u^{\alpha-1} \int _u ^1 \left( \frac{u}{v}-u \right)^{\beta-1} \left(1-\frac{u}{v}\right)^{\gamma-1}\frac{u}{v^2}~dv \]
변수를 \(t=\frac{u}{v-u}\frac{1}{1-u}\) 로 치환하면, \(dt=-\frac{u}{v^2(1-u)}dv\) 이므로,
\[ f_U(u) = \frac{\Gamma(\alpha+\beta+\gamma)}{\Gamma(\alpha)\Gamma(\beta)\Gamma(\gamma)} u^{\alpha-1}(1-u)^{\beta+\gamma-1} \int _0 ^1 t^{\beta-1} (1-t)^{\gamma-1} ~dt \]
이 때 마지막 적분은 \(B(\beta,\gamma)\) 의 적분 형태 정의이므로,
\[ f_U(u) = \frac{\Gamma(\alpha+\beta+\gamma)}{\Gamma(\alpha)\Gamma(\beta)\Gamma(\gamma)}u^{\alpha-1}(1-u)^{\beta+\gamma-1}\frac{\Gamma(\beta)\Gamma(\gamma)}{\Gamma(\beta+\gamma)} = \frac{1}{B(\alpha,\beta+\gamma)}u^{\alpha-1}(1-u)^{\beta+\gamma-1} \]
즉, \(\text{Beta}(\alpha,\beta+\gamma)\) 분포를 얻는다.
서로 independent인 랜덤 변수 \(X \sim \text{Beta}(\alpha,\beta)\), \(Y \sim \text{Beta}(\alpha+\beta, \gamma)\) 의 곱은 Beta distribution을 따른다. 즉,
\[ XY \sim \text{Beta}(\alpha,\beta+\gamma)\]
General Case
2.1 랜덤 변수의 변환 (1) Transformations of Random Variables (1)에서 일반적인 변환의 경우에는 pdf의 support를 분할하여, 각 영역에서 1대1 대응이 되도록 만들어 one-to-one case의 결과를 적용하였다. 다차원 random vector의 경우에도 마찬가지이다. 정리를 위해 다시 한번 조건을 살펴본다.
THEOREM
Random variable \(X\) 와 \(Y\) 의 joint pdf \(f_{X,Y}(x,y)\) 에 대하여 새로운 random variable \(U=g_1(X,Y)\), \(V=g_2(X,Y)\) 라고 하자. \(f_{X,Y}(x,y)\) 의 support를 \(P((X,Y)\in A_0)=0\), \(f_{X,Y}\) 가 각 \(A_i\) 에 대하여 continuous 하도록 partition \(A_0\), \(A_1\), \(A_2\), ..., \(A_n\) 으로 나누었을 때, 각 \(A_i\) 에 다음을 만족하는 함수 \(g_{1i}\), \(g_{2i}\)를 정의할 수 있다고 하자.
1. \((x,y)\in A_i\) 에 대하여, \(g_1(x,y)=g_{1i}(x,y)\), \(g_2(x,y)=g_{2i}(x,y)\)
2. \(A_i\) 에서 \((u,v)=(g_{1i}(x,y),g_{2i}(x,y)\) 는 one-to-one
3. \(\mathcal{Y}_i = \{(u,v)~:~(u,v)=(g_{1i}(x,y),g_{2i}(x,y))~\text{for }(x,y)\in A_i \}\) 에 대하여, \(\mathcal{Y}_1 = \mathcal{Y}_2 = \cdots = \mathcal{Y}_n = \mathcal{Y}\)
4. \((x,y)=(g_{1i} ^{-1}(u,v), g_{2i} ^{-1} (u,v))\) 의 Jacobian \(J_i\) 가 존재
그러면 \((U,V)\) 의 joint pdf는 다음과 같다.
\[ f_{U,V}(u,v) = \left\{ \begin{array}{cl} \sum _{i=1} ^n f_{X,Y}(g_{1i} ^{-1}(u,v), g_{2i} ^{-1} (u,v)) |J_i| & \text{if }(u,v) \in \mathcal{Y} \\ 0 & \text{otherwise} \end{array} \right. \]
'Mathematics > 통계학' 카테고리의 다른 글
[통계학] 4.5 공분산, 상관계수 Covariance, Correlation (0) | 2021.08.09 |
---|---|
[통계학] 4.4-(2) Example: 서로 독립인 정규 분포의 덧셈과 차 (0) | 2021.08.07 |
[통계학] 4.4-(1) Example: 계층적 확률 모델링 (0) | 2021.07.04 |
[통계학] 4.3-(1) 서로 독립인 두 개의 정규 분포의 덧셈 (2) | 2021.02.27 |
[통계학] 4.3 서로 독립인 두 개의 랜덤 변수 Bivariate Independent Random Variables (0) | 2021.02.26 |
[통계학] 4.2-(1) Example: 두 개의 랜덤 변수에서 조건부 최적 예측 (0) | 2021.02.21 |