Por que Anova () e drop1 () forneceram respostas diferentes para os GLMMs?

10

Eu tenho um GLMM do formulário:

lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + 
                (1 | factor3), family=binomial)

Quando uso drop1(model, test="Chi"), obtenho resultados diferentes dos que utilizo Anova(model, type="III")na embalagem do carro ou summary(model). Estes dois últimos dão as mesmas respostas.

Usando um monte de dados fabricados, descobri que esses dois métodos normalmente não diferem. Eles dão a mesma resposta para modelos lineares balanceados, modelos lineares desbalanceados (onde n desiguais em grupos diferentes) e para modelos lineares generalizados balanceados, mas não para modelos mistos lineares generalizados balanceados. Portanto, parece que somente nos casos em que fatores aleatórios são incluídos é que essa discórdia se manifesta.

  • Por que há uma discrepância entre esses dois métodos?
  • Ao usar o GLMM, deve Anova()ou deve drop1()ser usado?
  • A diferença entre esses dois é bastante pequena, pelo menos para os meus dados. Importa mesmo o que é usado?
tim.farkas
fonte

Respostas:

7

Eu acho que é a diferença de quais testes são computados. car::Anovausa os testes de Wald, enquanto que drop1o modelo é redefinido, descartando termos únicos. John Fox escreveu uma vez que Wald testa e testa modelos reequipados usando testes de razão de verossimilhança (ou seja, a estratégia de drop1) concordam com modelos lineares, mas não necessariamente não lineares. Infelizmente, este e-mail estava off-line e não continha nenhuma referência. Mas sei que o livro dele tem um capítulo sobre os testes de Wald, que pode conter as informações desejadas.

A ajuda para car::Anovadiz:

Os testes do tipo II são calculados de acordo com o princípio da marginalidade, testando cada termo após todos os outros, exceto ignorando os parentes de ordem superior do termo; os chamados testes do tipo III violam a marginalidade, testando cada termo no modelo após todos os outros. Essa definição de testes do tipo II corresponde aos testes produzidos pelo SAS para modelos de análise de variância, onde todos os preditores são fatores, mas não de maneira mais geral (ou seja, quando existem preditores quantitativos). Tenha muito cuidado ao formular o modelo para testes do tipo III, ou as hipóteses testadas não farão sentido.

Infelizmente, não posso responder a segunda ou terceira pergunta, pois também gostaria de saber isso.


Atualizar comentário de recuperação :

Não há testes de Wald, LR e F para modelos mistos generalizados. Anovaapenas permite "chisq"e "F"testa modelos mistos (ou seja, "mer"objetos retornados por lmer). A seção de uso diz:

## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3), 
    test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)

Mas, como os testes F para merobjetos são calculados por pbkrtest, que, para meu conhecimento, só funciona em modelos lineares mistos, os AnovaGLMMs sempre devem retornar chisq(portanto, você não vê diferença).

Atualização sobre a pergunta:

Minha resposta anterior apenas tentou responder à sua pergunta principal, a diferença entre Anova()e drop1(). Mas agora entendo que você deseja testar se certos efeitos fixos são significativos ou não. A FAQ de modelagem R-sig-mixed diz o seguinte sobre isso:

Testes de parâmetros únicos

Do pior ao melhor:

  • Testes Z de Wald
  • Para LMMs aninhados e balanceados, nos quais o df pode ser calculado: testes t de Wald
  • Teste de razão de verossimilhança, configurando o modelo para que o parâmetro possa ser isolado / eliminado (via anova ou drop1) ou através da computação de perfis de verossimilhança
  • Intervalos de confiança de MCMC ou de parametrização de inicialização

Testes de efeitos (ou seja, testes de que vários parâmetros são simultaneamente zero)

Do pior ao melhor:

  • Testes de Qui-quadrado de Wald (por exemplo, carro :: Anova)
  • Teste da razão de verossimilhança (via anova ou drop1)
  • Para LMMs aninhados e balanceados, onde df pode ser calculado: testes F condicionais
  • Para LMMs: testes F condicionais com correção df (por exemplo, Kenward-Roger no pacote pbkrtest)
  • Comparações de MCMC ou paramétricas, ou não paramétricas, de inicialização (a inicialização não paramétrica deve ser implementada com cuidado para levar em consideração os fatores de agrupamento)

(enfase adicionada)

Isso indica que sua abordagem de uso car::Anova()para GLMMs geralmente não é recomendada, mas uma abordagem usando MCMC ou bootstrap deve ser usada. Não sei se pvals.fncdo languageRpacote woks com GLMMs, mas vale a pena tentar.

Henrik
fonte
11
Obrigado Henrik. Anova () pode calcular três testes diferentes: Wald, LR e F. Eu tentei os três, mas não faz diferença, o que acho estranho. Tenho a sensação de que a função irá recusar-se a utilização de testes que decide não são apropriados para os dados ...
tim.farkas