A correlação da amostra e o desvio padrão da amostra de (denominado ) parecem correlacionar-se positivamente se eu simular normal bivariado , com uma correlação verdadeira positiva (e parecer correlacionar-nos negativamente se a correlação verdadeira entre e for negativo). Achei isso um pouco contra-intuitivo. Muito heuristicamente, suponho que isso reflita o fato de que representa o aumento esperado em Y (em unidades de SD (Y)) para um aumento de um DP em X, e se estimamos um maior , então reflete a mudança em Y associado a uma mudança maior no X.
No entanto, gostaria de saber se para é válido em geral (pelo menos no caso em que X e Y são bivariados normais e com n grande). Deixando denotar um verdadeiro SD, temos:
Tentei usar uma expansão de Taylor no primeiro mandato, mas isso depende de , portanto esse é um beco sem saída. Alguma ideia?
EDITAR
Talvez uma direção melhor seria tentar mostrar que , onde é o coeficiente OLS de Y em X. Então poderíamos argumentar que, desde que , isso implica o resultado desejado. Como é quase como uma diferença da média da amostra, talvez possamos obter o resultado anterior usando algo como a independência conhecida da média e variação da amostra para um RV normal?
fonte
Respostas:
TL; dr
As entradas fora da diagonal da covariância da amostra geralmente serão correlacionadas com as entradas diagonais porque somente quando condições especiais dos momentos mistos de 4ª ordem são mantidos. Quando é bivariável Gaussiana, estas condições são somente quando é independente de .E(XY3)−E(XY)E(Y2)=0 (X,Y) X Y
Detalhes
Há um resultado assintótico que pode ser mostrado aqui examinando a distribuição limitadora de vezes a covariância da amostra (pelo CLT, será normal multivariada) e, em seguida, aplicando o método delta. Infelizmente, isso significa que teremos que desviar através de uma derivação da distribuição da covariância de amostra pois não consigo encontrar boas referências on-line. Como alternativa, se você estiver disposto a assumir a normalidade, o conhecimento da covariância da distribuição Wishart permitirá que você pule diretamente para a seção 2.n−−√ 1
1 A distribuição assintótica da covariância da amostra
Seja uma amostra iid de uma distribuição bivariada com quarto momentos finitos e deixe Sem perda de generalidade e para evitar alguma contabilidade adicional irritante, assumiremos .V1,…,Vn Vi=(XiYi) Cov(Vi)=(σ2ρστρσττ2)=Σ. E(Vi)=0
Então, pela linearidade da expectativa e pela lei fraca de grandes números, a covariância da amostra é imparcial e consistente para e, de fatoSn=1n−1∑i=1n(Vi−V¯n)(Vi−V¯n)T=1n−1∑i=1ViVTi−nn−1V¯nV¯Tn Σ n−−√(Sn−Σ)→dN(0,Λ).
O exercício passa assim para determinar . Para uma matriz simétrica , seja seja a "vetorização" do seu triângulo superior. Agora considere um único elemento da média que entra no termo inicial (a matriz de dispersão) de : Claramente, pelo pressuposto da média zero, já e considerando as potências de e que aparecem em , podemos apenas escreverΛ A=(abbc) A~=(a,b,c)T Sn Z~i=ViVTi˜=⎛⎝⎜X2iXiYiY2i⎞⎠⎟. E(Zi)=Σ~ X Y Z~iZ~Ti Cov(Z~i)=E(Z~iZ~Ti)−E(Z~i)E(Z~i)T=⎛⎝⎜κ40σ4κ31σ2τκ22σ2τ2κ31σ2τκ22σ2τ2κ13στ3κ22σ2τ2κ13στ3κ04τ4⎞⎠⎟−Σ~Σ~T.
Aqui indica o momento padronizado misto (sobre a média, mas assumimos que a média é zero no início).κeu j= E[(XEuσ)Eu(YEuτ)j] eu j
Como alternativa, temos a fatoração onde , eCov (Z~Eu) = D ( σ, τ) [ K- R ( ρ ) R ( ρ)T] D ( σ, τ) ,( 1 ) D ( σ, τ)=diag(σ2,στ,τ2) R(ρ)=(1,ρ,1)T K=⎛⎝⎜κ04κ31κ22κ31κ22κ13κ22κ13κ04⎞⎠⎟.
Portanto, temos que e , representando a variação da amostra de e a covariância de estão correlacionados, a menos que . Quando é multivariada normal, isso ocorre apenas quando .Z11 Z12 X X,Y ρ=κ31 Vi ρ=0
2 O coeficiente de correlação
Agora considere a transformação em . Isso fornece a distribuição bivariada do coeficiente de correlação da amostra e a variação da amostra de x. Pelo método delta e normalidade assintótica de , onde é o jacobiano de .g(x,y,z)=(x,yz√x√) Sn~ Sn n−−√(g(Sn~)−(ρ,σ2)T)→N(0,J(Σ~)TΛ~J(Σ~)), J(Σ~)=[∇gT1,∇gT2]T g
Acho (embora você provavelmente queira verificar minha álgebra ..) que o gradiente do segundo componente de é Entãog ∇g2(σ2,ρστ,τ2)=(−ρ2σ2,1στ,−ρ2τ2)T,
J(σ,ρ,τ)=⎛⎝⎜⎜100−ρ2σ21στ−ρ2τ2⎞⎠⎟⎟.
Juntando tudo isso com a fatoração na equação (1), obtém-se
Conectando alguns números fáceis de usar, digamos e , teríamos para onde geralmente é uma matriz densa. Cortesia de Mathematica, eu expandi este produto em termos de entradas em e recontei abaixoσ=τ=1 ρ=.5 J(σ,ρ,τ)TD(σ,τ)[K−R(ρ)R(ρ)T]D(σ,τ)J(σ,ρ,τ)=(−1/4110−1/40)IΩI⎛⎝⎜−1/41−1/4100⎞⎠⎟=Q, Ω=K−R(ρ)R(ρ)T K Q12
n×Q12=n×Cov(r,s2x)=κ31−κ04+κ224(2)
que é uma expressão opaca em termos de momentos mistos, mas certamente não parece que seja zero, geralmente.
3 Especializando-se no caso normal
O teorema de Isserlis fornece uma maneira de derivar os momentos mistos de um gaussiano. Novamente assumindo e , teríamos , portanto, , como você observa.σ=τ=1 ρ=.5 κ31=3/2,κ04=3,κ22=3/2 Q12=3/2−(3+3/2)/4=3/8>0
4 Simulação e Exemplo
Abaixo, encontre uma equação de verificação de simulação (1). Para e (em vermelho e azul, respectivamente) a partir de observações iid um normal multivariada, que derivam da covariância de por de bootstrap. A covariância entre e é plotada no eixo y, pois varia de a . O valor teórico da equação (1) e o uso de fatos sobre os momentos de 4ª ordem do gaussiano bivariado são plotados em uma linha preta tracejada.n=100 n=1000 n−−√S~n Sxy Sxx ρ −.9 .9
Um exercício divertido seria tentar encontrar uma família de cópulas que, para qualquer valor de , renderizasse ...ρ Cov(Sxy,Sxx)=0
fonte
Editar: esta resposta está incorreta. Não tenho certeza se é melhor deixá-lo aqui para o registro ou apenas excluí-lo.
Sim, ele é assintoticamente independente da distribuição de X e Y. Eu estava no caminho certo com a expansão de Taylor:
fonte
Vai depender da distribuição conjunta. Para o exemplo mencionado, a distribuição normal bivariada (média zero) é caracterizada peloρ ,σx,σy . Conclui-se que é possível ter todas as combinações possíveis de valores desses três parâmetros, implicando que nenhuma relação entreρ e os desvios padrão podem ser estabelecidos.
Para outras distribuições bivariadas, o coeficiente de correlação pode ser fundamentalmente uma função dos desvios padrão (essencialmente ambos serão funções de parâmetros mais primitivos), caso em que se pode examinar se existe uma relação monotônica.
fonte