Como justificar o termo de erro na ANOVA fatorial?

13

Uma pergunta provavelmente muito básica sobre ANOVA multifatorial. Suponha um design bidirecional no qual testamos os efeitos principais A, B e a interação A: B. Ao testar o efeito principal de A com SS tipo I, o efeito SS é calculado como a diferença , em que é a soma dos quadrados dos erros residuais do modelo com apenas a interceptação, e o RSS do modelo com o fator A adicionado. Minha pergunta diz respeito à escolha do termo de erro:RSS(1)-RSS(UMA)RSS(1)RSS(UMA)

Como você justifica que o termo de erro para este teste é normalmente calculado a partir do RSS do modelo completo A + B + A: B que inclui os efeitos principais e a interação?

FUMA=(RSS1-RSSUMA)/(dfRSS1-dfRSSUMA)RSSUMA+B+UMA:B/dfRSSUMA+B+UMA:B

... em vez de tirar o termo de erro do modelo irrestrito da comparação real (RSS do efeito principal A no caso acima):

FUMA=(RSS1-RSSUMA)/(dfRSS1-dfRSSUMA)RSSUMA/dfRSSUMA

Isso faz a diferença, pois o termo de erro do modelo completo é provavelmente (nem sempre) menor do que o termo de erro do modelo irrestrito na comparação. Parece que a escolha pelo termo do erro é um tanto arbitrária, criando espaço para as alterações desejadas no valor p apenas adicionando / removendo fatores que não são realmente interessantes, mas altere o termo do erro de qualquer maneira.

No exemplo a seguir, o valor F para A muda consideravelmente, dependendo da escolha do modelo completo, mesmo que a comparação real para o efeito SS permaneça a mesma.

> DV  <- c(41,43,50, 51,43,53,54,46, 45,55,56,60,58,62,62,
+          56,47,45,46,49, 58,54,49,61,52,62, 59,55,68,63,
+          43,56,48,46,47, 59,46,58,54, 55,69,63,56,62,67)

> IV1 <- factor(rep(1:3, c(3+5+7, 5+6+4, 5+4+6)))
> IV2 <- factor(rep(rep(1:3, 3), c(3,5,7, 5,6,4, 5,4,6)))
> anova(lm(DV ~ IV1))                           # full model = unrestricted model (just A)
          Df  Sum Sq Mean Sq F value Pr(>F)
IV1        2  101.11  50.556  0.9342 0.4009
Residuals 42 2272.80  54.114

> anova(lm(DV ~ IV1 + IV2))                     # full model = A+B
          Df  Sum Sq Mean Sq F value   Pr(>F)    
IV1        2  101.11   50.56  1.9833   0.1509    
IV2        2 1253.19  626.59 24.5817 1.09e-07 ***
Residuals 40 1019.61   25.49                     

> anova(lm(DV ~ IV1 + IV2 + IV1:IV2))           # full model = A+B+A:B
          Df  Sum Sq Mean Sq F value    Pr(>F)    
IV1        2  101.11   50.56  1.8102    0.1782    
IV2        2 1253.19  626.59 22.4357 4.711e-07 ***
IV1:IV2    4   14.19    3.55  0.1270    0.9717    
Residuals 36 1005.42   27.93

A mesma pergunta se aplica ao SS tipo II e, em geral, a uma hipótese linear geral, ou seja, a uma comparação de modelo entre um modelo restrito e um irrestrito dentro de um modelo completo. (Para SS tipo III, o modelo irrestrito é sempre o modelo completo, portanto a questão não surge lá)

caracal
fonte
Posso apenas estar confuso com sua pergunta, mas, para testar o efeito de com SS tipo 1, o denominador é o que você tem em sua segunda expressão. O valor F na saída da execução é calculado através da sua segunda expressão. Ou seja, se você executou e inseriu os valores correspondentes em sua segunda expressão, obtém . Deixe-me saber se estou perdendo completamente a sua preocupação. UMAanova(lm(DV ~ IV1))anova(lm(DV ~ 1))anova(lm(DV ~ IV1))F=0,9342
@MikeWierzbicki Você está certo quanto ao fato de que se o modelo completo contiver apenas IV1(1º exemplo), as duas expressões para o denominador serão idênticas. No entanto, quando o modelo completo contém efeitos adicionais, o denominador para o teste muda, mesmo que a comparação do modelo ( vs. para SS tipo 1) não. Nos 3 exemplos, o quadrado médio de não muda (mesma comparação de modelo em todos os casos), mas o erro do quadrado médio muda. Estou interessado no que justifica a alteração do termo do erro quando a comparação real permanece a mesma. UMA~ 1~ IV1 + 1UMA
Caracal
Hey @caracal, é bom ver uma resposta tão antiga de repente aceita! :-) Felicidades.
ameba diz Restabelecer Monica

Respostas:

4

Esta é uma pergunta muito antiga e acredito que a resposta de @ gung é muito boa (+1). Mas como não foi totalmente convincente para o @caracal e como também não sigo completamente todos os seus meandros, gostaria de fornecer uma figura simples que ilustra como entendo o problema.


Considere uma ANOVA de duas vias (fator A tem três níveis, fator B tem dois níveis), sendo ambos os fatores obviamente muito significativos:

ANOVA fatorial soma de quadrados

SS para o fator A é enorme. SS para o fator B é muito menor, mas, a partir da figura superior, fica claro que o fator B também é muito significativo.

O erro SS para o modelo que contém os dois fatores é representado por um dos seis gaussianos e, ao comparar SS para o fator B com esse erro SS, o teste conclui que o fator B é significativo.

O erro SS do modelo que contém apenas o fator B, no entanto, é enorme! Comparando SS para o fator B com esse erro maciço, o SS definitivamente fará com que B pareça não significativo. O que claramente não é o caso.

É por isso que faz sentido usar o erro SS do modelo completo.

ameba diz Restabelecer Monica
fonte
2

Atualização: para esclarecer alguns dos pontos que passo aqui, adicionei alguns links para locais onde discuto as idéias relevantes mais detalhadamente.


RSSUMASSUMAMSUMAMSUMA+B+UMAB

RSSfvocêeueuMSUMA+B+UMAB>MSUMA+BSSUMAB=14,19dfR. No entanto, eliminar fatores do modelo que não são significativos para obter o termo de erro correto é logicamente equivalente a um procedimento de pesquisa automática de modelo, mesmo se você não tiver o software, faça isso automaticamente para você. Você deve saber que existem muitos problemas ao fazer isso. Esses problemas e procedimentos alternativos são discutidos em outra parte do CV 3 .

Um tópico final diz respeito aos diferentes tipos de SS. Em primeiro lugar, o uso de diferentes tipos de SS não impede que você precise de uma justificativa lógica para sua análise. Além disso, as SS tipo I-III estão relacionadas a um problema diferente. No seu exemplo, deduzo que seus fatores são ortogonais, ou seja, você executou um experimento em que atribuiu n igual a cada combinação de níveis de fatores. No entanto, se você realizar um estudo observacional ou se tiver problemas de abandono, seus fatores serão correlacionados. As implicações disso são que não há uma maneira única de particionar o SS e, portanto, não há uma resposta única para suas análises produzirem. Em outras palavras, os vários tipos de SS têm a ver com diferentes numeradores possíveis para o seu teste F quando seus fatores estão correlacionados 4 .

1. Observe que, com modelos de vários níveis, um fator pode ser teorizado para incluir variabilidade de outros fatores, dependendo de como o modelo é especificado. Estou discutindo a ANOVA comum aqui, e é sobre isso que você parece estar se perguntando.
2. Veja: Como a adição de um 2º IV torna o 1º IV significativo?
3. Consulte: Algoritmos para seleção automática de modelo .
4. Veja: Como interpretar ANOVA e MANOVA tipo I (seqüencial)?

Repor a Monica
fonte
1
BUMA:B
1
+1 e acabei de postar uma resposta tentando fornecer uma ilustração para o seu primeiro grande parágrafo.
ameba diz Restabelecer Monica
0

A justificativa é que o fator A está explicando uma porcentagem maior da variação inexplicada no modelo A + B em comparação com o modelo A, uma vez que o fator B explica uma parcela significativa (e, portanto, 'a remove' da análise).

CDX
fonte