Um lembrete consagrado nas estatísticas é "a falta de correlação não implica independência". Normalmente, esse lembrete é complementado com a afirmação psicologicamente reconfortante (e cientificamente correta) "quando, no entanto, as duas variáveis são normalmente distribuídas em conjunto , então a não correlação implica independência".
Eu posso aumentar a contagem de exceções felizes de uma para duas: quando duas variáveis são distribuídas por Bernoulli , novamente, a não correlação implica independência. Se e Y são dois Bermoulli rv, X ∼ B ( q x ) , , para o qual temos P ( X = 1 ) = E ( X ) = q x , e analogamente para Y , sua covariância é
Para a falta de correlação, exigimos que a covariância seja zero,
qual é a condição que também é necessária para que as variáveis sejam independentes.
Então, minha pergunta é: você conhece outras distribuições (contínuas ou discretas) para as quais a não correlação implica independência?
Significado: Assuma duas variáveis aleatórias que possuem distribuições marginais que pertencem à mesma distribuição (talvez com valores diferentes para os parâmetros de distribuição envolvidos), mas digamos com o mesmo suporte, por exemplo. duas exponenciais, duas triangulares, etc. Todas as soluções da equação Cov ( X , Y ) = 0 são tais que também implicam independência, em virtude da forma / propriedades das funções de distribuição envolvidas? É o caso dos marginais normais (dado também que eles têm uma distribuição normal bivariada), bem como dos marginais de Bernoulli - existem outros casos?
A motivação aqui é que geralmente é mais fácil verificar se a covariância é zero, em comparação com verificar se a independência se mantém. Portanto, se, dada a distribuição teórica, ao verificar a covariância, você também verificar a independência (como é o caso de Bernoulli ou caso normal), isso seria útil.
Se recebermos duas amostras de dois rvs que possuem marginais normais, sabemos que, se pudermos concluir estatisticamente a partir de amostras que sua covariância é zero, também podemos dizer que elas são independentes (mas apenas porque possuem marginais normais). Seria útil saber se poderíamos concluir o mesmo nos casos em que os dois rvs tivessem marginais que pertencessem a alguma outra distribuição.
fonte
Respostas:
"No entanto, se as duas variáveis são normalmente distribuídas, a falta de correlação implica independência" é uma falácia muito comum .
Isso só se aplica se eles são normalmente distribuídos em conjunto .
O contra-exemplo que eu vi com mais frequência é normal e Rademacher independente Y (então é 1 ou -1 com probabilidade 0,5 cada); então Z = X Y também é normal (claro ao considerar sua função de distribuição), Cov ( X , Z ) = 0 (o problema aqui é mostrar E ( X Z ) = 0, por exemplo, iterando a expectativa em Y e observando que X Z é X 2X∼ N( 0 , 1 ) Y Z= XY Cov( X, Z) = 0 E (XZ) = 0 Y XZ X2 ou X me fornecerão informações sobre Z ). com probabilidade 0,5 cada) e é claro que as variáveis são dependentes (por exemplo, se eu sei que X > 2 então Z > 2 ou Z < - 2 , portanto, informações sobre- X2 X> 2 Z> 2 Z< - 2 X Z
Também vale lembrar que as distribuições marginais não determinam exclusivamente a distribuição conjunta. Faça dois RVs reais e Y com CDFs marginais F X ( x ) e G Y ( y ) . Então, para qualquer α < 1, a função:X Y FX( X ) GY( y) α < 1
será um CDF bivariado. (Para obter o marginal de H X , Y ( x , y ), tome o limite conforme y vai para o infinito, onde F Y ( y ) = 1. Vice-versa para Y. ) Claramente, selecionando valores diferentes de α, você pode obter diferentes distribuições conjuntas!FX( X ) HX, Y( x , y) y FY( y) = 1 Y α
fonte