[170216 확률론] 새롭게 정의된 확률변수를 다루는 방법???
[170216 Probability Theory] I'm wondered about probability function of new random variables
임의로 주어진 확률변수 $X$, $Y$에 대해 $Z=X+Y$나 $Z=XY$등 새롭게 주어지는 확률변수에 대한 확률함수를 어떻게 다루어야 할 지 잘 모르겠다.
확률변수 $X$, $Y$에 대해 $E(X+Y)=E(X)+E(Y)$를 증명할 수 있으려면 결합확률 $P(Z=X+Y)$를 알아야 할 것 같은데 이 부분에 대한 아이디어가 전혀 없다.
For arbitrary random variable $X$, $Y$, I'm wondered about new random variables, such as $Z=X+Y$, $Z=XY$, etc.
To prove $E(X+Y)=E(X)+E(Y)$ with random variables $X$, $Y$, I think I need probability $P(Z=X+Y)$ but I have no idea.
적률생성함수로도 증명해볼까 싶었는데, 적률생성함수를 이용하려면 $E(XY)=E(X)E(Y)$를 사용할 수 있으면 되는데 이것도 $X$, $Y$가 독립일 때만 사용가능하지 독립조건이 없을 때는 음......
(1분 뒤)
$E(XY)=E(X)E(Y)$에 대한 식을 찾아보기 위해 뒤적거리던 중 $E(X+Y)=E(X)+E(Y)$의 증명을 찾아버렸다. 뒤쪽에 있었구만;;
I tried it with MGF(Moment generating function). But it needs $E(XY)=E(X)E(Y)$, which is satisfied with mutually independent random variables $X$, $Y$.
$E(X+Y)=E(X)+E(Y)$ has no independence condition...
(1 minute later)
In my book, I found a solution for this post. Dear me...
책에서는 $E(X)$를 확률변수 $X$의 주변확률함수 말고 결합확률함수로 계산함.
$E(X)=\sum_{x}{xh(x)}$ ($h(x)$ : 확률변수 $X$에 대한 $f(x,y)$의 주변확률함수)가 아니라, $E(X)=\sum_{x}{xf(x,y)}$로 계산해버림. 허허?
The solution deals $E(X)$ with joint probability function, not marginal probability function.
That is, not $E(X)=\sum_x{xh(x)}$($h(x)$ : Marginal probability function of $f(x,y)$ with respect to random variable $X$) but $E(X)=\sum_x{xf(x,y)}$.