Para quais distribuições a não correlação implica independência?

11

Um lembrete consagrado nas estatísticas é "a falta de correlação não implica independência". Normalmente, esse lembrete é complementado com a afirmação psicologicamente reconfortante (e cientificamente correta) "quando, no entanto, as duas variáveis ​​são normalmente distribuídas em conjunto , então a não correlação implica independência".

Eu posso aumentar a contagem de exceções felizes de uma para duas: quando duas variáveis ​​são distribuídas por Bernoulli , novamente, a não correlação implica independência. Se e Y são dois Bermoulli rv, X B ( q x ) ,XY , para o qual temos P ( X = 1 ) = E ( X ) = q x , e analogamente para Y , sua covariância éXB(qx),YB(qy)P(X=1)=E(X)=qxY

Cov(X,Y)=E(XY)E(X)E(Y)=SXYp(x,y)xyqxqy

=P(X=1,Y=1)qxqy=P(X=1Y=1)P(Y=1)qxqy

=(P(X=1Y=1)qx)qy

Para a falta de correlação, exigimos que a covariância seja zero,

Cov(X,Y)=0P(X=1Y=1)=P(X=1)

P(X=1,Y=1)=P(X=1)P(Y=1)

qual é a condição que também é necessária para que as variáveis ​​sejam independentes.

Então, minha pergunta é: você conhece outras distribuições (contínuas ou discretas) para as quais a não correlação implica independência?

Significado: Assuma duas variáveis ​​aleatórias que possuem distribuições marginais que pertencem à mesma distribuição (talvez com valores diferentes para os parâmetros de distribuição envolvidos), mas digamos com o mesmo suporte, por exemplo. duas exponenciais, duas triangulares, etc. Todas as soluções da equação Cov ( X , Y ) = 0X,YCov(X,Y)=0 são tais que também implicam independência, em virtude da forma / propriedades das funções de distribuição envolvidas? É o caso dos marginais normais (dado também que eles têm uma distribuição normal bivariada), bem como dos marginais de Bernoulli - existem outros casos?

A motivação aqui é que geralmente é mais fácil verificar se a covariância é zero, em comparação com verificar se a independência se mantém. Portanto, se, dada a distribuição teórica, ao verificar a covariância, você também verificar a independência (como é o caso de Bernoulli ou caso normal), isso seria útil.
Se recebermos duas amostras de dois rvs que possuem marginais normais, sabemos que, se pudermos concluir estatisticamente a partir de amostras que sua covariância é zero, também podemos dizer que elas são independentes (mas apenas porque possuem marginais normais). Seria útil saber se poderíamos concluir o mesmo nos casos em que os dois rvs tivessem marginais que pertencessem a alguma outra distribuição.

Alecos Papadopoulos
fonte
Logicamente, não há dúvida aqui: considere qualquer par de variáveis ​​independentes como a distribuição. Sejam ou não correlacionados, são independentes por decreto ! Você realmente precisa ser mais preciso sobre o que você quer dizer com "distribuição" e que tipo de respostas você achará útil.
whuber
@whuber Eu não entendo o seu comentário. I começar por uncorrelatedness e perguntar: "se eu posso provar que eles não estão correlacionados quando isso implica que eles também são independentes"? Como os dois resultados apresentados na pergunta dependem de os rv terem uma distribuição específica (normal ou Bernoulli), pergunto "existe outra distribuição conhecida para a qual, se as duas variáveis ​​o seguirem, esse resultado será válido"?
Alecos Papadopoulos
3
Pegue quaisquer duas variáveis ​​independentes e deixe F ser sua distribuição. F é uma resposta válida para sua pergunta. Observe que você está pedindo para provar uma condicional, que por definição é verdadeira sempre que o consequente for verdadeira, não importa qual seja o valor de verdade de seu antecedente. Assim, pelas regras básicas da lógica, todas as distribuições de variáveis ​​independentes são respostas para sua pergunta. X,YFF
whuber
@Whuber, você está evidentemente certo. Adicionei algum texto relacionado à motivação para esta pergunta, que espero esclarecer qual foi minha motivação.
Alecos Papadopoulos
2
Com quais informações você começa quando toma essa decisão? A partir da formulação do seu exemplo, parece que você recebe o pdf marginal de cada variável e as informações de que cada par de variáveis ​​não está correlacionado. Você decide se eles também são independentes. Isso é preciso?
probabilityislogic

Respostas:

9

"No entanto, se as duas variáveis ​​são normalmente distribuídas, a falta de correlação implica independência" é uma falácia muito comum .

Isso só se aplica se eles são normalmente distribuídos em conjunto .

O contra-exemplo que eu vi com mais frequência é normal e Rademacher independente Y (então é 1 ou -1 com probabilidade 0,5 cada); então Z = X Y também é normal (claro ao considerar sua função de distribuição), Cov ( X , Z ) = 0 (o problema aqui é mostrar E ( X Z ) = 0, por exemplo, iterando a expectativa em Y e observando que X Z é X 2XN(0 0,1)YZ=XYCov(X,Z)=0 0E(XZ)=0 0YXZX2ou X me fornecerão informações sobre Z ). com probabilidade 0,5 cada) e é claro que as variáveis ​​são dependentes (por exemplo, se eu sei que X > 2 então Z > 2 ou Z < - 2 , portanto, informações sobre-X2X>2Z>2Z<-2XZ

Também vale lembrar que as distribuições marginais não determinam exclusivamente a distribuição conjunta. Faça dois RVs reais e Y com CDFs marginais F X ( x ) e G Y ( y ) . Então, para qualquer α < 1, a função:XYFX(x)GY(y)α<1

HX,Y(x,y)=FX(x)GY(y)(1+α(1-FX(x))(1-FY(y)))

será um CDF bivariado. (Para obter o marginal de H X , Y ( x , y ), tome o limite conforme y vai para o infinito, onde F Y ( y ) = 1. Vice-versa para Y. ) Claramente, selecionando valores diferentes de α, você pode obter diferentes distribuições conjuntas!FX(x)HX,Y(x,y)yFY(y)=1Yα

Silverfish
fonte
De fato. Eu esqueci a "junta".
Alecos Papadopoulos
1
@Alecos Como as distribuições marginais não determinam a distribuição conjunta em geral (apenas editei minha resposta para deixar isso claro), onde isso deixa sua pergunta?
Silverfish
1
@Alecos Acho que agora compreendo melhor a substância da questão: dadas duas distribuições marginais, há um conjunto infinito de possíveis distribuições conjuntas. Em que circunstâncias a imposição da condição de covariância zero nos deixa com apenas uma daquelas distribuições conjuntas ainda possíveis, a saber, aquela em que as variáveis ​​aleatórias são independentes?
Silverfish
1
MX,Y(s,t)MX(s)=MX,Y(s,0 0)MY(t)=MX,Y(0 0,t)2stMX,Y(s,t)|s=0 0,t=0 0=sMX,Y(s,t)|s=0 0,t=0 0tMX,Y(s,t)|s=0 0,t=0 0MX,Y(s,t)=MX,Y(s,0 0)MX,Y(0 0,t)
2
@ Silverman Gostaria de verificar o conceito de subindependência , en.wikipedia.org/wiki/Subindependence , para ver se esse problema pode ser formulado em termos de funções geradoras de momento.
Alecos Papadopoulos