Alguém tem uma prova de que a covariância entre duas variáveis sempre tem o mesmo sinal que Rho de Spearman, assumindo que ambas não são zero , ou uma explicação / contra-exemplo para mostrar por que não é esse o caso?
Eu estou falando sobre as magnitudes da "população" (teórica), não sobre as amostras correspondentes. Ou seja, para duas variáveis aleatórias com funções de distribuição e com todos os momentos necessários, co-momentos, etc, existentes,
Eu sei que se são dependentes do quadrante ( ), positiva ou negativamente, isso realmente vale,
... novamente, se ambos não forem zero. Mas e se o não puder ser estabelecido ou não se sustentar?
O que eu estou procurando depois é uma prova de que se é uma crescente transformação monotônica de , então . Sei que isso parece fortemente intuitivo e até "auto-evidente", mas não consegui encontrar essa prova em lugar algum, nem consegui provar isso sozinho. Mais precisamente, o que quero mostrar é que, se ambos não são zero, eles não podem ter sinais opostos.
Agora, como o Rho de Spearman é invariável a transformações monotônicas, temos ; portanto, uma maneira de provar o resultado do "mesmo sinal" para as covariâncias seria: provar que a covariância sempre tem o mesmo sinal que o Rho de Spearman, daí a questão.
Eu encontrei uma expressão antiga e bonita para a covariância devido a W. Hoeffding, que aproxima muito as definições de e , mas não pude provar a afirmação geral sem assumir a dependência do quadrante.
Obviamente, se alguém tiver algo diretamente no resultado do "mesmo sinal" (desejado) para as covariâncias, seria igualmente útil.
ATUALIZAÇÃO
Encontrei esta pergunta que está relacionada, mas não é idêntica. Como já mencionado, ele modifica minha pergunta da seguinte maneira: "Suponha que ambas as medidas não sejam zero. Elas podem ter sinais opostos?"
fonte
Respostas:
Existem muitos contra-exemplos. Mas vamos abordar a questão subjacente:
Isto é falso.
O primeiro contra-exemplo é a distribuição uniforme discreta nas pontos aqui representado plotando esses sete pontos como círculos vermelhos no painel esquerdo:F (xi,yi) (1,8.1),(2,9.1),(3,10.1),(4,11.1),(5,12.1),(6,13.1),(7,0.1),
Considere a família de transformações de Box-Cox
onde a constante é escolhida para tornar os valores de comparáveis aos de (por exemplo, configurando para ser a potência da média geométrica de ) e é adicionado para fazer o identidade. Tudo isso é monotônico; um exemplo é mostrado paraC hp(yi) y C p−1 yi 1 h1 p=2 no painel direito. Seus efeitos sobre a covariância são plotados no painel do meio. Ele mostra uma mudança de covariância negativa (devido a esse ponto externo no canto inferior esquerdo) para covariância positiva (porque a transformação torna o ponto um pouco menos externo, reduzindo seu efeito negativo na covariância positiva forte de todos os outros dados) .
Em particular, para ser perfeitamente explícito, você pode calcular que
dando e Os pontos são plotados como triângulos ocos em azul no painel esquerdo.Cov(xi,yi)=−7/3<0 Cov(xi,h(yi,2))=0.39217>0. (xi,h(yi,2))
O segundo contra - exemplo é uma versão contínua do primeiro. Seja qualquer distribuição contínua suportada emPara qualquer número real defina(U,V) [−1,1]×[−1,1]. ϵ
Desde que possui uma distribuição contínua (consulte A soma de uma variável aleatória contínua e de uma variável aleatória mista é contínua? ). Fornecido o suporte de está no primeiro quadrante (estritamente positivo em ambas as variáveis), implicando que as transformações de Box-Cox podem ser aplicadas a Você pode executar os cálculos confirmando que a covariância de é uma função contínua deLogo, para suficientemente pequeno o primeiro contra-exemplo mostra a covariância deϵ≠0, (Xϵ,Yϵ) |ϵ|<1/10, (Xϵ,Yϵ) Yϵ. (Xϵ,Yϵ) ϵ. ϵ, (Xϵ,Yϵ) é negativo enquanto o de é positivo, QED.(Xϵ,h2(Yϵ))
fonte
Eu digo que eles podem ter sinais opostos.
Vejamos a seguinte simulação.
No entanto, podemos considerar os dados simulados como uma população discreta.
O "ecdf" (CDF empírico) engana R para tornar a população CDF dessa variável discreta, então acho que estamos trabalhando no nível da população e que isso é um contra-exemplo.
fonte
Para aumentar o valor desse segmento, mostrarei por que a dependência do quadrante implica que:
a) covariância terá o mesmo sinal que o Rho de Spearman, se ambos não forem zero;
b) o sinal de covariância não é afetado por transformações monotônicas estritamente crescentes; diferente de zero.
Vou mostrar para distribuições contínuas com densidades, mas essa não é uma condição crítica.
Sejam , duas variáveis aleatórias com a função de distribuição conjunta , funções de distribuição marginal e funções massa densidade / probabilidade . Então nós temosX Y FXY(x,y) FX(x),FY(y) fX(x),fY(y)
Observe que a condição crucial é o qualificador "para todos ".(x,y)
Agora, a "bela fórmula de covariância de Hoeffding" é
onde é o suporte conjunto. Por outro lado, o Rho de Spearman pode ser expresso comoSXY
Aqueles que lembram que entendem por que a existência de densidades não é crítica. Mas é esclarecedor: compactando temosdF(x)=f(x)dx [FXY(x,y)−FX(x)FY(y)]≡QD(x,y)
Vemos que a covariância "soma" as quantidades sobre o apoio conjunto "não ponderada", enquanto a Rho de Spearman as soma ponderada pelo produto das densidades, (que é sempre não -negativo). Se a dependência do quadrante se mantém, em ambas as medidas "somamos" apenas coisas não-negativas ou somente coisas não-positivas.QD(x,y) fx(x)fy(y)
assim
a) Sob , a Covariância terá o mesmo sinal que o Rho de Spearman se ambos não forem zero:QD
Além disso, considere uma transformação monotônica estritamente crescente de , . O Rho de Spearmans é invariável sob essa transformação,Y h(Y)
Em Dependência do quadrante, teremos, novamente, quando as duas medidas não forem zero,
Ligando igualdades de sinais, obtemos então
Como está implícito nas outras respostas, o resultado contra-intuitivo aqui é que a dependência do quadrante não pode ser eliminada: se não for válida, não temos garantia de que uma transformação estritamente crescente de uma variável preserve o sinal de covariância. Portanto, argumentos informais "bastante lógicos" como "uma vez que, quando tende a aumentar, o mesmo ocorre com , conclui-se que, se covaria positivamente com , também covaria positivamente com " - segue "apenas se for válido.Y h(Y) X Y h(Y) QD
Formalmente, pode-se ver isso definindo e observando queZ=h(Y),h′(y)>0
Se o não for válido, isso significa que alguns serão positivos e outros negativos. Então, o fato de que digamos sozinho não pode garantir que também, pois, aqui, ponderamos o integrando anterior por , que, embora estritamente positivo, não seja uma constante e, portanto, pode pesar desproporcionalmente mais os negativos do que os positivos, resultando globalmente em um valor negativo. Portanto, pelo menos nesse caminho, a propriedade da dependência do quadrante é essencial.QD QD(x,y) Cov(X,Y)>0 Cov(X,Z)>0 h′(y) QD(x,y)
fonte