Por que usamos um teste F unilateral na análise de variância (ANOVA)?

13

Você pode explicar o motivo de usar um teste unilateral na análise de variância?

Por que usamos um teste unicaudal - o teste F - na ANOVA?

Cynderella
fonte
2
Algumas perguntas para guiar seu pensamento ... O que significa uma estatística t muito negativa? É possível uma estatística F negativa? O que significa uma estatística F muito baixa? O que significa uma estatística alta de F?
russellpierce
Por que você tem a impressão de que um teste unilateral tem que ser um teste F? Para responder à sua pergunta: O Teste-F permite testar uma hipótese com mais de uma combinação linear de parâmetros.
IMA
1
Você quer saber por que alguém usaria um teste unilateral em vez de bicaudal?
Jens Kouros
@tree o que constitui uma fonte credível ou oficial para seus propósitos?
Glen_b -Reinstate Monica
1
@tree note que a pergunta de Cynderella aqui não é sobre um teste de variâncias, mas especificamente um teste F da ANOVA - que é um teste de igualdade de médias . Se você estiver interessado em testes de igualdade de variações, isso já foi discutido em muitas outras perguntas neste site. (Para o teste de variância, sim, você se preocupa com as duas caudas, como está claramente explicado na última frase desta seção , logo acima de ' Propriedades ')
Glen_b -Reinstata Monica

Respostas:

17

Os testes F são mais comumente usados ​​para dois propósitos:

  1. na ANOVA, para testar a igualdade de médias (e várias análises semelhantes); e

  2. no teste da igualdade de variâncias

Vamos considerar cada um por sua vez:

1) Os testes F na ANOVA (e da mesma forma, os tipos usuais de testes qui-quadrado para dados de contagem) são construídos de modo que, quanto mais os dados são consistentes com a hipótese alternativa, maior a estatística do teste tende a ser, enquanto os arranjos da amostra os dados que parecem mais consistentes com o nulo correspondem aos menores valores da estatística de teste.

Considere três amostras (do tamanho 10, com igual variação de amostra) e organize-as para terem médias iguais de amostra e depois mova suas médias em diferentes padrões. À medida que a variação na amostra média aumenta de zero, a estatística F se torna maior:

Arranjos de 3 amostras e estatística F correspondente

As linhas pretas () são os valores dos dados. As linhas vermelhas pesadas ( | ) são as médias do grupo.||

Se a hipótese nula (igualdade de médias da população) for verdadeira, você esperaria alguma variação nas médias da amostra e esperaria ver índices F aproximadamente em torno de 1. Estatísticas menores de F resultam de amostras que estão mais próximas do que você normalmente espere ... então você não vai concluir que a população significa diferente.

Ou seja, para ANOVA, você rejeitará a hipótese de igualdade de médias quando obtiver valores F extraordinariamente grandes e não rejeitará a hipótese de igualdade de médias quando obtiver valores incomumente pequenos (isso pode indicar algo , mas não que a população significa diferente).

Aqui está uma ilustração que pode ajudá-lo a perceber que só queremos rejeitar quando F está na cauda superior:

Descrição de F para ANOVA, rejeita quando a estatística F está na cauda superior

2) testes F para igualdade de variância * (com base nas razões de variância). Aqui, a proporção de duas estimativas de variação da amostra será grande se a variação da amostra do numerador for muito maior que a variação no denominador e a proporção será pequena se a variação da amostra do denominador for muito maior que a variação no numerador.

Ou seja, para testar se a proporção de variações populacionais difere de 1, você rejeitará o nulo para valores grandes e pequenos de F.

* (Deixando de lado a questão da alta sensibilidade à premissa distributiva deste teste (existem melhores alternativas) e também a questão de que, se você estiver interessado na adequação das premissas de variância igual à ANOVA, sua melhor estratégia provavelmente não é uma teste formal.)

Glen_b -Reinstate Monica
fonte
2
O teste de @TaylerJones Levene é um pouco mais robusto. Browne-Forsythe é mais robusto (mas perde um pouco de energia perto do normal). Fligner-Killeen mais uma vez. Em várias décadas, usei Levene ou Browne-Forsythe no máximo duas vezes cada. (Se surgisse novamente, provavelmente algo como Browne-Forsythe me
conviria
2
F=MSTREUMATMENTMSERROR estará perto de 1 , enquanto se hipótese alternativa for verdadeira, F-Ratio será maior. Mas como isso implica "essa é a razão do uso do teste unicaudal na ANOVA?"
time
2
@tree parece que você não entende algo sobre o teste de hipóteses de maneira mais geral, mas é difícil saber exatamente onde. Você diz que entende que se recebe um F grande, deseja rejeitar e se recebe um F pequeno, não deseja rejeitar. Os grandes valores de F são aqueles na cauda superior, enquanto os pequenos valores de F são aqueles na cauda inferior. Você só quer rejeitar quando os valores são grandes ... ou seja, na cauda superior, mas não na cauda inferior. Como você pode não ver que é uma cauda? Vou incluir outro enredo que pode ajudar.
Glen_b -Reinstala Monica
1
@ jeramy Meus comentários se referem aos testes que se baseiam em proporções de variações (especificamente, afirmei " Aqui, a proporção de duas estimativas de variação de amostra será ..."). Os testes que você refere procuram diferenças de localização em resíduos absolutos de alguma medida de localização, a fim de detectar diferenças no spread; eles naturalmente funcionam da mesma maneira que os testes para diferenças de local. Desde que eu estava tentando mostrar um caso onde você iria olhar para a cauda inferior da F, a Brown-Forsythe (e alguns outros testes que olhar para as diferenças de localização em alguma medida de desvio às diferenças inferir spread) seria nenhuma ajuda
Glen_b # Re: Monica Monica 23/11
1
@ cerâmica Eu adicionei algumas palavras para torná-lo mais explícito. Você pode observar que, embora Brown-Forsythe, Levene e assim por diante usem tabelas F, a distribuição das estatísticas do teste não é realmente distribuída F, mesmo sob as premissas do teste.
Glen_b -Reinstala Monica 23/11
2

Deve-se entender que o objetivo da ANOVA é verificar se há desigualdade de médias ... o que implica que estamos preocupados com grandes variações entre as amostras (e, portanto, significa que as variações são calculadas a partir das médias) em comparação com as variações nas amostras (novamente calculado a partir da média da amostra individual). Quando as variações entre as amostras são pequenas (resultando no valor F no lado esquerdo), isso não importa, pois essa diferença é insignificante. As variações entre as amostras importam se forem significativamente maiores que as variações internas e, nesse caso, o valor de F seria maior que 1 e, portanto, na cauda direita.

A única questão que permanece é por que colocar todo o nível de significância na cauda certa e a resposta é novamente semelhante. A rejeição ocorre apenas quando a proporção F está no lado direito e nunca quando a proporção F está no lado esquerdo. O nível de significância é a medida de erro devido a limitações estatísticas. Como a rejeição ocorre apenas à direita, todo o nível de significância (risco de erro de erro de conclusão) é mantido à direita. `

Prof Pradeep Pai
fonte
0

O valor esperado para o quadrado médio (EM) nos tratamentos é a variação populacional, enquanto o valor esperado para a EM entre tratamentos é a variação populacional MAIS a variação do tratamento. Assim, a razão de F = MS entre / MS dentro é sempre maior que 1 e nunca menor que 1.

Como a precisão de um teste unilateral é melhor que um teste bicaudal, preferimos usar o teste unilateral.

Jeff Cotter
fonte
Não acredito que a afirmação na última frase do seu primeiro parágrafo esteja correta ... E (numerador)> E (denominador) não implica esse numerador> denominador.
Glen_b -Reinstala Monica
Além do argumento de Glen_b, não tenho certeza sobre "como a precisão de um teste unilateral é melhor que um teste bicaudal, preferimos usar o teste unilateral". Você pode explicar o que você quer dizer com isso? Falar sobre precisão me parece errado.
Silverfish
A precisão é igual ao intervalo de meia confiança. Para o mesmo F-stat, um teste de 1 cauda rejeitará a hipótese nula com um valor p menor (metade, de fato). Por outro lado, um teste de uma cauda pode rejeitar a hipótese nula com valores menores do F-stat. Isso implica que um teste de uma cauda pode detectar um efeito de tratamento com menos amostras ou com uma variação de causa mais comum presente na amostra. Isso torna o teste de 1 cauda mais desejável, se alguém estiver procurando por um efeito.
Jeff Cotter
Sim, uma estatística F calculada pode ser menor que 1,0. No entanto, a conclusão seria deixar de rejeitar a hipótese nula de "nenhum efeito do tratamento". Portanto, não há região crítica na cauda inferior. Portanto, o teste F é um teste unilateral superior. Na ANOVA, o argumento lógico é baseado nos valores esperados para MS_treat e MS_error. Sob a hipótese "sem efeito de tratamento", H0: E (MS_treat) = E (MS_error) = variação populacional. Qualquer efeito significativo do tratamento resulta em HA: E (MS_treat)> E (MS_error). (Fonte qualquer texto Montgomery cobrindo ANOVA). Assim, a HA implica um teste unilateral.
Jeff Cotter