Use

12

Suponha que eu tenha seja iid e deseje fazer um teste de hipótese que μ seja 0. Suponha que eu tenha n grande e possa usar o Teorema do Limite Central. Eu também poderia fazer um teste que μ 2 é 0, o que deve ser equivalente a testar que μ é 0. Além disso, n ( ˉ X 2 - 0 ) converge para um qui-quadrado, onde X1,,Xnμμ2μn(X¯20)converge para um normal. Como ˉ X 2tem uma taxa de convergência mais rápida, não devo usá-lo para a estatística de teste e, portanto, obterá uma taxa de convergência mais rápida e o teste será mais eficiente?n(X¯0)X¯2

Sei que essa lógica está errada, mas tenho pensado e pesquisado há muito tempo e não consigo descobrir o porquê.

Xu Wang
fonte
1
Não está claro o que você está perguntando. Você poderia explicar em que sentido a taxa de convergência de é "mais rápida" do que a de ˉ X ? Como você está medindo a taxa? Quais estatísticas de teste você está usando nos dois testes? Claramente, essas escolhas podem fazer a diferença. X¯2X¯
whuber
@ whuber obrigado por perguntas. Eu reivindico "taxa mais rápida" porque n é maior que a raiz quadrada de n. Essa intuição está incorreta? Tenho em mente a estatística de teste X-bar ou X-bar ao quadrado.
Xu Wang
3
Eu acho que você está se concentrando na coisa errada. Essa taxa indica a rapidez com que a distribuição de amostragem se aproxima da limitante - Normal normal ou . Como n é grande, seu valor não faz diferença prática - é irrelevante. A questão diz respeito ao poder de cada teste, não à aproximação da estatística do teste com a distribuição limitadora. χ2(1)n
whuber
@whuber obrigado por esses detalhes. Eu estive pensando neles, mas ainda não entendo. A variância aproximada da barra X ^ 2 acabará por ser menor que a variação aproximada da barra X? E isso não é resultado de X-bar ^ 2 ter uma taxa de convergência mais alta que X-bar? Sinto muito por não ter visto meus mal-entendidos fundamentais. Sei que falta algo grande e espero corrigir esse pensamento.
Xu Wang #
Não importa se a variação aproximada é maior ou menor, porque o que conta é a distribuição da estatística. Para ver isso, considere um teste t para com x N ( 0 , 1 ) vs y N ( 0 , 10 ) . A estatística ˉ y sempre tem variância 100x que de ˉ x , mas os resultados de normalização em ambas as estatísticas de teste reais distribuídos t ( n - 1 ) . No seu caso, lembre-se de que ao quadrado um Nμ=0xN(0,1)yN(0,10)y¯x¯t(n1) variate dá um χ 2N(0,1)χ2variado. No limite, essa transformação significa que os dois testes são idênticos em termos de poder, considerando um nível especificado.
jbowman

Respostas:

1

Ambos os testes que você descreve são equivalentes.

H0:μ=0
H1:μ0

então eles são equivalentes a

H0:μ2=0
H1:μ2>0.

X¯ will also be Normal with mean μ and variance σ2/n (which might be known or unknown).

If the data aren't known to be Normal then you can use the central limit theorem and the above will be true asymptotically. You claim that X¯2 will converge to a chi-squared variable "faster" than X¯ will converge to a normal one. This is true in the sense that as n tends to infinity,

P(|X¯μ|>|X¯2μ2|)1

but that is not the whole story. We are performing a likelihood ratio test, or at least an approximate one. the ratio will come out the same whether we perform a chi-squared or a normal test. (Recall that the square of a normal random variable follows a chi-squared distribution.) If the sample mean X¯ sai no 95º percentil da distribuição normal ou t relevante, então a soma dos quadrados será igual ao 95º percentil do χ2 distribuição (que não é o mesmo número, mas isso não importa).

JDL
fonte