Tenho observações emparelhadas ( X i , Y i ) tirada a partir de uma distribuição desconhecido comum, que tem finitos primeiro e segundo momentos, e é simétrica em torno da média.
Deixe o desvio padrão de X (incondicional em Y ) e σ Y o mesmo para Y. Gostaria de testar a hipótese
: σ X = σ Y
: σ X ≠ σ Y
Alguém conhece esse teste? Na primeira análise, posso assumir que a distribuição é normal, embora o caso geral seja mais interessante. Estou procurando uma solução de formulário fechado. Bootstrap é sempre o último recurso.
Respostas:
Você pode usar o fato de que a distribuição da variação da amostra é uma distribuição qui-quadrado centrada na variação verdadeira. Sob sua hipótese nula, sua estatística de teste seria a diferença de duas variáveis aleatórias ao quadrado do chi, centradas na mesma variância verdadeira desconhecida. Não sei se a diferença de duas variáveis aleatórias qui-quadrado é uma distribuição identificável, mas as opções acima podem ajudá-lo até certo ponto.
fonte
Se você deseja seguir a rota não-paramétrica, sempre pode tentar o teste de classificações quadradas.
Para o caso não emparelhado, as suposições para este teste (extraídas daqui ) são:
Essas notas de aula descrevem o caso não emparelhado em detalhes.
Para o caso emparelhado, você precisará alterar um pouco esse procedimento. No meio desta página , você deve ter uma idéia de por onde começar.
fonte
A abordagem mais ingénuo I pode pensar é a regredir vs X i como Y i ~ m X i + b , em seguida, executar uma t -test na hipótese m = 1 . Consulte o teste t para obter a inclinação da regressão .Yi Xi Yi∼m^Xi+b^ t m=1
Uma abordagem menos ingênua é o teste de Morgan-Pitman. Seja seguida , execute um teste do coeficiente de correlação de Pearson de U i vs V i . (É possível fazer isso simplesmente usando a transformação Fisher RZ , que fornece os intervalos de confiança em torno do coeficiente de Pearson da amostra ou por meio de um bootstrap.)Ui=Xi−Yi,Vi=Xi+Yi, Ui Vi
Se você estiver usando R e não quiser codificar tudo sozinho, eu usaria o
bootdpci
pacote Wilcox 'Robust Stats, WRS. (veja a página de Wilcox .)fonte
Se você puder assumir a normalidade bivariada, poderá desenvolver um teste de razão de verossimilhança comparando as duas estruturas possíveis da matriz de covariância. As estimativas de verossimilhança máxima sem restrições (H_a) são bem conhecidas - apenas a matriz de covariância da amostra, as restritas (H_0) podem ser derivadas escrevendo a probabilidade (e provavelmente será algum tipo de estimativa "combinada").
Se você não deseja derivar as fórmulas, pode usar SAS ou R para ajustar um modelo de medidas repetidas com estruturas de covariância de simetria não estruturada e composta e comparar as probabilidades.
fonte
A dificuldade vem claramente porque e Y são correlacionados (suponho que ( X , Y ) sejam conjuntamente gaussianos, como Aniko) e você não pode fazer a diferença (como na resposta de @ svadali) ou uma proporção (como no Standard Fisher-Snedecor "Teste-F") porque esses seriam de distribuição χ 2 dependente e porque você não sabe qual é essa dependência que dificulta derivar a distribuição sob H 0 .X Y (X,Y) χ2 H0
Minha resposta se baseia na Equação (1) abaixo. Como a diferença de variância pode ser fatorada com uma diferença de autovalores e uma diferença de ângulo de rotação, o teste de igualdade pode ser declinado em dois testes. Eu mostro que é possível usar o teste de Fisher-Snedecor juntamente com um teste na encosta como o sugerido por @shabbychef devido a uma propriedade simples de vetores gaussianos 2D.
A simple property of 2D gaussian vector Let us denote by
Testing ofVar(X)=Var(Y) can be done through testing if (
λ21=λ22 or θ=π/4mod[π/2] )
Conclusion (Answer to the question) Testing forλ21=λ22 is easely done by using ACP (to decorrelate) and Fisher Scnedecor test. Testing θ=π/4[modπ/2] is done by testing if |β1|=1 in the linear regression Y=β1X+σϵ (I assume Y and X are centered).
Testing wether(λ21=λ22 or θ=π/4[modπ/2]) at level α is done by testing if λ21=λ22 at level α/3 or if |β1|=1 at level α/3 .
fonte