Ensinaram-me que podemos produzir uma estimativa de parâmetro na forma de um intervalo de confiança após a amostragem de uma população. Por exemplo, intervalos de confiança de 95%, sem suposições violadas, devem ter uma taxa de sucesso de 95% de conter qualquer que seja o parâmetro verdadeiro que estamos estimando na população.
Ou seja,
- Produza uma estimativa pontual a partir de uma amostra.
- Produza uma gama de valores que teoricamente têm 95% de chance de conter o valor verdadeiro que estamos tentando estimar.
No entanto, quando o tópico se voltou para o teste de hipóteses, as etapas foram descritas da seguinte maneira:
- Suponha algum parâmetro como hipótese nula.
- Produza uma distribuição de probabilidade da probabilidade de obter várias estimativas pontuais, considerando que essa hipótese nula é verdadeira.
- Rejeite a hipótese nula se a estimativa pontual que obtivermos for produzida em menos de 5% do tempo, se a hipótese nula for verdadeira.
Minha pergunta é esta:
É necessário produzir nossos intervalos de confiança usando a hipótese nula para rejeitar o nulo? Por que não apenas executar o primeiro procedimento e obter nossa estimativa para o parâmetro true (não usando explicitamente nosso valor hipotético no cálculo do intervalo de confiança) e depois rejeitar a hipótese nula se ela não se enquadra nesse intervalo?
Isso parece logicamente equivalente a mim intuitivamente, mas receio que esteja perdendo algo muito fundamental, pois provavelmente existe uma razão para ser ensinado dessa maneira.
Respostas:
Um problema simples, a título de exemplo, é dado testando a média de uma população normal com variação conhecida . Então, um pivô - uma quantidade cuja distribuição não depende do parâmetro é dado por ˉ Y - μ ∼ N ( 0 , 1 / n ) . Os valores críticos z α / 2 satisfazem, neste caso simétrico, Φ ( - z α / 2 ) = α / 2 e Φ ( z ασ2=1 Y¯−μ∼N(0,1/n) zα/2 Φ(−zα/2)=α/2 .Φ(zα/2)=1−α/2
(ˉX-Zα/2/√
Ao mesmo tempo, o evento na primeira linha da exibição também é precisamente o evento em que a hipótese nula não é rejeitada por esse . Como o resto contém apenas reformulações equivalentes, o ci realmente contém todos para os quais o nulo não é rejeitado e nenhuma referência a "sob o nulo" é necessária.μμ μ
Aqui está um gráfico análogo à visualização +1 de Martijn com o objetivo de mostrar o que é conhecido como dualidade entre intervalos de confiança e testes. denota o intervalo de confiança pertencente a alguns e a região de aceitação pertencente a alguma hipótese .ˉ x ∗ A ( μ 0 ) μ = μ 0C x¯∗ A ( μ0 0) μ = μ0 0
fonte
Sim, você pode substituir um teste de hipótese (comparando amostra com uma distribuição hipotética dos resultados do teste) por uma comparação com um intervalo de confiança calculado a partir da amostra. Mas indiretamente, um intervalo de confiança já é uma espécie de teste de hipótese, a saber:
A consequência de fazer esse intervalo é que o intervalo falha apenas uma fração do tempo.α
Exemplo
Estou usando uma imagem de uma resposta para a pergunta abaixo: Intervalos de confiança: como lidar formalmente comP( L ( X ) ≤ θ , U( X ) ≥ θ ) = 1 - α
É uma variação de um gráfico de Clopper-Pearson . Imagine o caso de 100 tentativas de Bernoulli onde a probabilidade de sucesso é e observamos o número total de sucessos .Xθ X
Observe que:
Na direção vertical, você vê o teste de hipóteses. Por exemplo, para um determinado valor hipotético você rejeita a hipótese se o medido estiver acima ou abaixo das linhas pontilhadas em vermelho ou verde.Xθ X
Na direção horizontal você vê os intervalos de confiança de Clopper-Pearson. Se, para qualquer observação X, você usar esses intervalos de confiança, estará errado apenas 5% das vezes
(porque você só observará esse X, no qual baseará um intervalo "errado", 5% do tempo)
fonte