Comparando a variação das observações emparelhadas

16

Tenho observações emparelhadas ( X i , Y iNXiYi ) tirada a partir de uma distribuição desconhecido comum, que tem finitos primeiro e segundo momentos, e é simétrica em torno da média.

Deixe o desvio padrão de X (incondicional em Y ) e σ Y o mesmo para Y. Gostaria de testar a hipótese σXXYσY

: σ X = σ YH0σX=σY

: σ Xσ YH1σXσY

Alguém conhece esse teste? Na primeira análise, posso assumir que a distribuição é normal, embora o caso geral seja mais interessante. Estou procurando uma solução de formulário fechado. Bootstrap é sempre o último recurso.

gappy
fonte
3
Não sei por que as informações em que as observações estão emparelhadas são importantes para a hipótese que está sendo testada; você poderia explicar?
22810 russellpierce
1
@drknexus é importante porque a dependência dificulta a calibração do teste de Fisher.
robin Girard

Respostas:

4

Você pode usar o fato de que a distribuição da variação da amostra é uma distribuição qui-quadrado centrada na variação verdadeira. Sob sua hipótese nula, sua estatística de teste seria a diferença de duas variáveis ​​aleatórias ao quadrado do chi, centradas na mesma variância verdadeira desconhecida. Não sei se a diferença de duas variáveis ​​aleatórias qui-quadrado é uma distribuição identificável, mas as opções acima podem ajudá-lo até certo ponto.


fonte
3
@svadali é mais comum usar a razão aqui, já que a distribuição da razão do quadrado do chi é tabulada (F de Fisher). No entanto, a parte problemática da pergunta (ou seja, a dependência entre e Y ) ainda está lá, o que você usar. Não é fácil criar um teste com dois qui-quadrado dependentes ... Tentei dar uma resposta com uma solução nesse ponto (veja abaixo). XY
22611 robin girard
7

Se você deseja seguir a rota não-paramétrica, sempre pode tentar o teste de classificações quadradas.

Para o caso não emparelhado, as suposições para este teste (extraídas daqui ) são:

  1. Ambas as amostras são amostras aleatórias de suas respectivas populações.
  2. Além da independência dentro de cada amostra, há independência mútua entre as duas amostras.
  3. A escala de medição é pelo menos intervalo.

Essas notas de aula descrevem o caso não emparelhado em detalhes.

Para o caso emparelhado, você precisará alterar um pouco esse procedimento. No meio desta página , você deve ter uma idéia de por onde começar.

csgillespie
fonte
6

A abordagem mais ingénuo I pode pensar é a regredir vs X i como Y i ~ m X i + b , em seguida, executar uma t -test na hipótese m = 1 . Consulte o teste t para obter a inclinação da regressão .YiXiYim^Xi+b^tm=1

Uma abordagem menos ingênua é o teste de Morgan-Pitman. Seja seguida , execute um teste do coeficiente de correlação de Pearson de U i vs V i . (É possível fazer isso simplesmente usando a transformação Fisher RZ , que fornece os intervalos de confiança em torno do coeficiente de Pearson da amostra ou por meio de um bootstrap.)Ui=XiYi,Vi=Xi+Yi,UiVi

Se você estiver usando R e não quiser codificar tudo sozinho, eu usaria o bootdpcipacote Wilcox 'Robust Stats, WRS. (veja a página de Wilcox .)

shabbychef
fonte
4

Se você puder assumir a normalidade bivariada, poderá desenvolver um teste de razão de verossimilhança comparando as duas estruturas possíveis da matriz de covariância. As estimativas de verossimilhança máxima sem restrições (H_a) são bem conhecidas - apenas a matriz de covariância da amostra, as restritas (H_0) podem ser derivadas escrevendo a probabilidade (e provavelmente será algum tipo de estimativa "combinada").

Se você não deseja derivar as fórmulas, pode usar SAS ou R para ajustar um modelo de medidas repetidas com estruturas de covariância de simetria não estruturada e composta e comparar as probabilidades.

Aniko
fonte
3

A dificuldade vem claramente porque e Y são correlacionados (suponho que ( X , Y ) sejam conjuntamente gaussianos, como Aniko) e você não pode fazer a diferença (como na resposta de @ svadali) ou uma proporção (como no Standard Fisher-Snedecor "Teste-F") porque esses seriam de distribuição χ 2 dependente e porque você não sabe qual é essa dependência que dificulta derivar a distribuição sob H 0 .XY(X,Y)χ2H0

Minha resposta se baseia na Equação (1) abaixo. Como a diferença de variância pode ser fatorada com uma diferença de autovalores e uma diferença de ângulo de rotação, o teste de igualdade pode ser declinado em dois testes. Eu mostro que é possível usar o teste de Fisher-Snedecor juntamente com um teste na encosta como o sugerido por @shabbychef devido a uma propriedade simples de vetores gaussianos 2D.

i=1,2 (Z1i,,Znii)λ^i2λi2λ1=λ2

R=λ^X2λ^Y2
follows a Fisher-Snedecor distribution F(n11,n21)

A simple property of 2D gaussian vector Let us denote by

R(θ)=[cosθsinθsinθcosθ]
It is clear that there exists λ1,λ2>0 ϵ1, ϵ2 two independent gaussian N(0,λi2) such that

[XY]=R(θ)[ϵ1ϵ2]
and that we have
Var(X)Var(Y)=(λ12λ22)(cos2θsin2θ)[1]

Testing of Var(X)=Var(Y) can be done through testing if ( λ12=λ22 or θ=π/4mod[π/2])

Conclusion (Answer to the question) Testing for λ12=λ22 is easely done by using ACP (to decorrelate) and Fisher Scnedecor test. Testing θ=π/4[modπ/2] is done by testing if |β1|=1 in the linear regression Y=β1X+σϵ (I assume Y and X are centered).

Testing wether (λ12=λ22 or θ=π/4[modπ/2]) at level α is done by testing if λ12=λ22 at level α/3 or if |β1|=1 at level α/3.

robin girard
fonte