지금까지 cdf, pmf, pdf 그리고 expected value, mgf 등에 대하여 살펴보았다. 모든 가능한 결과의 집합인 sample space에서 pdf, expected value 등은 실험값에 해당하는 random variable 개념을 정의하는데서 시작했다. 현실적으로, 어떤 통계 조사나 실험을 수행할 때, 하나의 측정값만 존재하는 경우는 거의 없을 것이다. 예를 들어, 어떤 도시에 사는 사람들의 건강에 대하여 조사하는 경우, "나이는 20~30이고, 키는 170~180cm, 몸무게는 70~80인 인구는 얼마나 되는가"와 같은 질문을 하고 이에 대한 분포를 나타낼 수 있다. 이번 페이지에서는 이렇게 여러 가지 random variable을 이용하여 sample space의 분포를 표현하는 방법에 대하여 개념들을 정리한다.
#Random Vector
위의 예에서 나이, 키, 몸무게라는 random variable을 vector의 행태로
\[ (\text{나이}, \text{키}, \text{몸무게}) \]
와 같은 벡터 형태로 표현할 수 있는데, 이를 random vector라고 부른다.
DEFINITION Random Vectors
Sample space에서 \(n\)-차원 유클리드 공간 \(\mathbb{R}^n\) 으로의 함수를 \(n\)-차원 random vector라고 한다.
Example
정육면체 주사위 하나를 두번 던지는 실험을 생각해보자. 두번을 던져 나온 수의 합을 \(X\), 두 수의 차를 \(Y\)라고 하면, \(X\) 와 \(Y\) 는 각각 random variable이 된다. 가능한 \(X\) 는 2, 3, 4, ..., 12이고, 가능한 \(Y\) 는 0, 1, 2, ..., 5가 가능하다.
\(X\) 와 \(Y\) 를 하나의 벡터로 묶어,
\[ (X, Y) = (\text{두 수의 합}, \text{두 수의 차}) \]
로 표현하면, (2,0), (3,1), ..., (12,0) 이 가능하다. 이 좌표쌍이 random vector가 된다.
#Joint pmf
Random variable이 discrete(불연속)인 경우 확률을 다루기 위하여 pmf를 정의한 것처럼, random vector에 대하여 pmf를 구할 수 있다. 이 경우, random vector가 random variable 여러개를 묶어서 표현한다는 뜻으로 특별히 joint pmf라는 이름으로 부른다.
DEFINITION Joint Probability Mass Functions
\((X_1, X_2, \cdots, X_n)\) 을 \(n\)-차원 random vector라고 하자. 각각의 random variable이 discrete한 경우 다음과 같이 정의되는 \(\mathbb{R^n}\) 에서 \(\mathbb{R}\) 로의 함수를 joint probability mass function (결합 질량 함수, 줄여서 joint pmf)라고 부른다.
\[ f(x_1,x_2, \cdots ,x_n) = P(X_1=x_1, X_2=x_2, \cdots, X_n=x_n) \]표기: random vector들을 구분해서 표현해야 하는 경우에는 \(f_{X_1,X_2,\cdots,X_n}(x_1,x_2,\cdots,x_n)\) 으로 표현한다.
Example
위의 주사위 예제의 몇 가지 값에 대하여 joint pmf 값을 구해보자. (2,0)의 경우는 첫번째 던졌을 때 1, 두번째 던졌을 때 1이 나오는 경우에만 가능하므로,
\[ f(2,0) = P(X=2, Y=0) = \frac{1}{36} \]
이 된다. (6,2)의 경우에는 첫번째 던졌을 때 4, 두번째 던졌을 때 2이 나오는 경우와 첫번째 던졌을 때 2, 두번째 던졌을 때 4가 나오는 경우 이렇게 2가지 경우가 있으므로,
\[ f(4,2) = P(X=4, Y=2~\text{or }X=2, Y=4) = \frac{2}{36} \]
가 된다.
#Joint pdf
Random vector가 continuous(연속)인 경우에는 discrete의 pmf에 대응되는 joint pdf를 정의할 수 있다.
DEFINITION Joint Probability Density Functions
\((X_1, X_2, \cdots, X_n)\) 을 \(n\)-차원 random vector라고 하자. 각각의 random variable이 continuous한 경우 임의의 event \(A\) 에 대하여, 다음을 만족하는 \(\mathbb{R^n}\) 에서 \(\mathbb{R}\) 로의 함수를 joint probability density function (결합 밀도 함수, 줄여서 joint pdf)라고 부른다.
\[ P\left( (X_1,X_2,\cdots,X_n)\in A \right) = \int _A f(x,y)~dx_1dx_2\cdots dx_n \]
Example
다음과 같이 정의된 joint pdf를 생각해보자.
\[ f(x,y) = \left\{ \begin{array}{cl} 12x^2y^3 & \text{if } 0<x<1 ~\text{and }0<y<1 \\ 0 & \text{otherwise} \end{array} \right. \]
\(X\) 가 \(\frac{1}{2}\)부터 1까지, \(Y\) 가 0부터 \(\frac{1}{2}\) 까지 있을 확률은
\[ \iint _{\frac{1}{2} \le x \le 1 ~,~ 0 \le y \le \frac{1}{2}} 12x^2y^3 ~dxdy = \int _{\frac{1}{2}} ^1 \int _0 ^{\frac{1}{2}} 12x^2y^3 ~dydx = \int _{\frac{1}{2}} ^1 \frac{3}{16}x^2 ~dx = \frac{21}{128} \]
가 된다.
Properties
joint pmf, joint pdf 역시 각각 pmf, pdf이기 때문에 기본적인 probability function의 성질들과 expected value들이 정의된다. 예를 들어
- \(f(x_1,x_2,\cdots,x_n) \ge 0\)
- \(P(\text{entire sample space}) = \left\{ \begin{array}{cl} \sum f(x_1,x_2,\cdots, x_n) & \text{discrete case} \\ \int f(x_1,x_2,\cdots, x_n) & \text{continuous case} \end{array} \right. \)
- countable addivity
와 같은 성질들을 모두 만족한다. expected value 역시
\[ E[g(X_1,X_2,\cdots,X_n)] = \left\{ \begin{array}{cl} \sum g(x_1,x_2,\cdots,x_n) f(x_1,x_2,\cdots,x_n) & \text{discrete case} \\ \int g(x_1,x_2,\cdots,x_n)f(x_1,x_2,\cdots,x_n)~dx_1dx_2\cdots dx_n & \text{continuous case} \end{array} \right. \]
로 정의한다. 2.2 기대값 Expected Values에서 살펴본 성질들도 모두 성립한다.
#Marginal pmf #Marginal pdf
Radom vector \((X_1, X_2, \cdots, X_n)\) 를 다루고 있지만, 여전히 각각의 random variable에 대하여 확률을 정의할 수 있다. 위의 주사위 예제에서, 두 수의 합에만 관심이 있고, 두 수의 차에 대해서는 관심이 없다고 한다면,
\[ \begin{align*} P(X=x) &= P(X=x, Y=0 ~\text{or }X=x, Y=1 ~\text{or} \cdots \text{or } X=x, Y=5) \\ \\ &= P(X=x, Y=0) + P(X=x, Y=1) + \cdots + P(X=x,Y=5) \end{align*} \]
처럼 계산할 수 있다. 이 값 역시 random variable \(X\) 에 대한 확률을 표현하고 있으므로 \(X\) 의 pmf가 된다. 이렇게 다중 random variable을 고려하고 있을 때, 하나의 random variable에 대한 pmf를 marginal pmf라고 한다. 위의 식에서 볼 수 있듯이, joint pmf를 알고 있는 경우 marginal pmf는 다음과 같이 계산할 수 있다.
THEOREM
\((X_1,X_2,\cdots,X_n)\) 를 \(n\)-차원 random vector라고 하자. random variable \(X_i\) 에 대한 marginal pmf는 다음과 같은 식을 만족한다.
\[ f_{X_i} (k) = \sum _{x_1,\cdots,x_{i-1},x_{i+1},\cdots,x_n \in \mathbb{R}} f_{X_1,X_2,\cdots,X_n}(x_1,\cdots,x_{i-1},k,x_{i+1},\cdots,x_n) \]
각각의 random variable들의 marginal pmf가 같다고 하더라도 joint pmf는 다를 수 있음에 주의하자. 다음의 두 경우를 살펴보자.
- \(f(0,0)=\frac{1}{12}\), \(f(1,0)=\frac{5}{12}\), \(f(0,1)=f(1,1)=\frac{3}{12}\), 다른 값들에 대해서는 0인 joint pmf에 대하여 \(f_X(x)\) 와 \(f_Y(y)\) 를 구해보면,
\[ \begin{align*} f_X(0) &= \frac{1}{3} & f_Y(0) &= \frac{1}{2} \\ f_X(1) &= \frac{2}{3} & f_Y(1) &= \frac{1}{2} \end{align*} \] - \(f(0,0)=f(0,1)=\frac{1}{6}\), \(f(1,0)=f(1,1) =\frac{1}{3}\), 다른 값들에 대해서는 0인 joint pmf에 대하여 marginal pmf \(f_X(x)\)와 \(f_Y(y)\) 를 구해보면,
\[ \begin{align*} f_X(0) &= \frac{1}{3} & f_Y(0) &= \frac{1}{2} \\ f_X(1) &= \frac{2}{3} & f_Y(1) &= \frac{1}{2} \end{align*} \]
1번의 경우와 2번의 경우를 비교해보면, joint pmf는 다르지만, marginal pmf는 같은 함수가 얻어진다. 즉, joint pmf는 각각의 marginal pmf들이 표현하는 정보보다 더 많은 정보를 포함한다고 할 수 있다.
random vector가 continuos인 경우에도 마찬가지로 marginal pdf를 정의할 수 있다. pmf와 마찬가지로 다음과 같은 식이 성립한다.
\[ f_X(x) = \int _{-\infty} ^\infty f(x,y) ~dy ~~,~\text{for }-\infty < x <\infty \]
\[ f_Y(y) = \int _{-\infty} ^\infty f(x,y) ~dx ~~,~\text{for }-\infty < y <\infty \]
#Joint cmf #Joint cdf
Random variable에서 cmf, cdf를 정의한 것처럼, random vector에서도 joint cmf, joint cdf를 정의할 수 있다.
DEFINITION Joint cmf, Joint cdf
\((X_1,X_2,\cdots,X_n)\) 을 \(n\)-차원 random vector라고 하자. 다음과 같이 정의되는 함수 \(F(x_1,x_2,\cdots, x_n)\) 을 joint cmf (continuous의 경우 joint cdf)라고 한다.
\[ F(x_1,x_2,\cdots,x_n) = P(X_1\le x_1, X_2\le x_2, \cdots, X_n\le x_n) \]
특히 joint cdf의 경우 다음과 같이 joint pdf와 미분, 적분 관계에 있다.
\[ F(x_1,\cdots,x_n) = \int _{-\infty} ^{x_1} \cdots \int _{-\infty} ^{x_n} f(u_1,\cdots,u_n)~du_n\cdots du_1 \]
\[ f(x_1,\cdots,x_n) = \frac{\partial^n F(x_1,\cdots,x_n)}{\partial x_1 \cdots \partial x_n} ~~~~\text{at continuous points of }f(x_1,\cdots,x_n) \]
'Mathematics > 통계학' 카테고리의 다른 글
[통계학] 4.3 서로 독립인 두 개의 랜덤 변수 Bivariate Independent Random Variables (0) | 2021.02.26 |
---|---|
[통계학] 4.2-(1) Example: 두 개의 랜덤 변수에서 조건부 최적 예측 (0) | 2021.02.21 |
[통계학] 4.2 두 개의 랜덤 변수에서 조건부 확률 Conditional Probability Distributions of Two Random Variables (0) | 2021.02.21 |
[통계학] 2.2-(1) 최빈값, 중앙값 Mode, Median (0) | 2021.02.13 |
[통계학] 3.7-① 표준 정규 분포 Standard Normal Distribution (0) | 2020.10.07 |
[통계학] 3.7 정규 분포 Normal Distribution (0) | 2020.09.29 |