Se e são duas variáveis aleatórias que só podem assumir dois estados possíveis, como posso mostrar que implica independência? Isso vai contra o que aprendi no dia em que não implica independência ...X
A dica diz para começar com 1
Meio confuso como fazer isso matematicamente, eu acho.
covariance
independence
user3604869
fonte
fonte
Respostas:
Para variáveis binárias, seu valor esperado é igual à probabilidade de serem iguais a um. Portanto,
E ( X Y ) = P ( X Y = 1 ) = P ( X = 1 ∩ Y = 1 )E ( X ) = P ( X = 1 )E ( Y ) = P ( Y = 1 )
Se os dois têm covariância zero, isso significa , o que significaE ( X Y ) = E ( X ) E ( Y )E(XY)=E(X)E(Y)
P(X=1∩Y=1)=P(X=1)⋅P(Y=1)
É trivial ver todas as outras probabilidades conjuntas também se multiplicarem, usando as regras básicas sobre eventos independentes (ou seja, se e são independentes, então seus complementos são independentes etc.), o que significa que a função de massa conjunta fatora, que é a definição de duas variáveis aleatórias sendo independentes.AA BB
fonte
Tanto a correlação quanto a covariância medem a associação linear entre duas variáveis fornecidas e não tem obrigação de detectar nenhuma outra forma de associação.
Portanto, essas duas variáveis podem estar associadas de várias outras formas não lineares e a covariância (e, portanto, a correlação) não conseguiu distinguir dos casos independentes.
Como muito didáctico, artificial e não realista exemplo, pode-se considerar XX de modo a que P ( X = x ) = 1 / 3P(X=x)=1/3 para X = - 1 , 0 , 1x=−1,0,1 e também considerar Y = X 2Y=X2 . Observe que eles não são apenas associados, mas um é função do outro. No entanto, sua covariância é 0, pois sua associação é ortogonal à associação que a covariância pode detectar.
EDITAR
De fato, como indicado por @whuber, a resposta original acima foi na verdade um comentário sobre como a afirmação não é universalmente verdadeira se ambas as variáveis não eram necessariamente dicotômicas. Foi mal!
Então vamos matemática. (O equivalente local do "Traje!" De Barney Stinson)
Caso particular
Se XX e YY eram dicotômicos, você pode assumir, sem perda de generalidade, que ambos assumem apenas os valores 00 e 11 com probabilidades arbitrárias pp , qq e rr dados por
P ( X = 1 ) = p ∈ [ 0 , 1 ] P ( Y = 1 ) = q ∈ [ 0 , 1 ] P ( X = 1 , Y= 1 ) = r ∈ [ 0 , 1 ] ,
Observe que r = P ( X = 1 , Y = 1 ) pode ser igual ao produto p ⋅ q = P ( X = 1 ) P ( Y = 1 ) , o que tornaria X e Y independentes, pois P ( X = 0 , Y = 0 )r=P(X=1,Y=1) p⋅q=P(X=1)P(Y=1) X Y = 1 - p - q - p q = ( 1 - p ) ( 1 - q ) = P ( X = 0 ) P ( Y = 0 ) P ( X = 1 , Y = 0 )= p - p q = p ( 1 - q ) = P ( X = 1 ) P ( Y = 0 ) P ( X = 0 , Y = 1 )= q - p q = ( 1 - p ) q = P ( X = 0 ) P ( Y = 1 ) .
Sim, r pode ser igual a p q , MAS pode ser diferente, desde que respeite os limites acima.r pq
Bem, a partir da distribuição conjunta acima, teríamos E ( X )= 0 ⋅ P ( X = 0 ) + 1 ⋅ P ( X = 1 ) = P ( X = 1 ) = p E ( Y )= 0 ⋅ P ( Y = 0 ) + 1 ⋅ P ( Y = 1 ) = P ( Y = 1 ) = q E ( X Y )= 0 ⋅ P ( X Y = 0 ) + 1 ⋅ P ( X Y = 1 )=P(XY=1)=P(X=1,Y=1)=rCov(X,Y)=E(XY)−E(X)E(Y)=r−pq
Now, notice then that XX and YY are independent if and only if Cov(X,Y)=0Cov(X,Y)=0 . Indeed, if XX and YY are independent, then P(X=1,Y=1)=P(X=1)P(Y=1)P(X=1,Y=1)=P(X=1)P(Y=1) , which is to say r=pqr=pq . Therefore, Cov(X,Y)=r−pq=0Cov(X,Y)=r−pq=0 ; and, on the other hand, if Cov(X,Y)=0Cov(X,Y)=0 , then r−pq=0r−pq=0 , which is to say r=pqr=pq . Therefore, XX and YY are independent.
General Case
About the without loss of generality clause above, if XX and YY were distributed otherwise, let's say, for a<ba<b and c<dc<d ,
P(X=b)=pP(Y=d)=qP(X=b,Y=d)=r
Also, we would have E(X′)=E(X−ab−a)=E(X)−ab−aE(Y′)=E(Y−cd−c)=E(Y)−cd−cE(X′Y′)=E(X−ab−aY−cd−c)=E[(X−a)(Y−c)](b−a)(d−c)=E(XY−Xc−aY+ac)(b−a)(d−c)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)Cov(X′,Y′)=E(X′Y′)−E(X′)E(Y′)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)−E(X)−ab−aE(Y)−cd−c=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)−a][E(Y)−c](b−a)(d−c)=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)E(Y)−cE(X)−aE(Y)+ac](b−a)(d−c)=E(XY)−E(X)E(Y)(b−a)(d−c)=1(b−a)(d−c)Cov(X,Y).
=D
fonte
IN GENERAL:
The criterion for independence is F(x,y)=FX(x)FY(y)F(x,y)=FX(x)FY(y) . Or fX,Y(x,y)=fX(x)fY(y)
"If two variables are independent, their covariance is 0.0. But, having
a covariance of 00 does not imply the variables are independent."
This is nicely explained by Macro here, and in the Wikipedia entry for independence.
independence⇒zero covindependence⇒zero cov , yet
zero cov⇏independence.zero cov⇏independence.
Great example: X∼N(0,1)X∼N(0,1) , and Y=X2.Y=X2. Covariance is zero (and E(XY)=0, which is the criterion for orthogonality), yet they are dependent. Credit goes to this post.
IN PARTICULAR (OP problem):
These are Bernoulli rv's, X and Y with probability of success Pr(X=1), and Pr(Y=1).
cov(X,Y)=E[XY]−E[X]E[Y]=∗Pr(X=1∩Y=1)−Pr(X=1)Pr(Y=1)⟹Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1).
This is equivalent to the condition for independence in Eq. (1).
(∗):
E[XY]=∗∗∑domain X, YPr(X=x∩Y=y)xy=≠0 iff x×y≠0Pr(X=1∩Y=1).
(∗∗): by LOTUS.
As pointed out below, the argument is incomplete without what Dilip Sarwate had pointed out in his comments shortly after the OP appeared. After searching around, I found this proof of the missing part here:
Similarly. A and Bc are independent events.
So, we have shown already that Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1)
fonte