Comparações permitidas de modelos de efeitos mistos (efeitos aleatórios principalmente)

20

Eu estive analisando a modelagem de efeitos mistos usando o pacote lme4 em R. Estou usando principalmente o lmercomando, por isso vou fazer minha pergunta por meio de código que usa essa sintaxe. Suponho que possa ser uma pergunta fácil geral, é correto comparar dois modelos construídos no lmeruso de taxas de verossimilhança com base em conjuntos de dados idênticos? Acredito que a resposta deve ser "não", mas posso estar incorreta. Eu li informações conflitantes sobre se os efeitos aleatórios devem ser os mesmos ou não, e qual componente dos efeitos aleatórios significa isso? Então, apresentarei alguns exemplos. Vou tirá-los de dados de medidas repetidas usando estímulos de palavras, talvez algo como Baayen (2008) seja útil na interpretação.

Digamos que eu tenho um modelo em que existem dois preditores de efeitos fixos, os quais chamaremos de A e B, e alguns efeitos aleatórios ... palavras e assuntos que os perceberam. Eu poderia construir um modelo como o seguinte.

m <- lmer( y ~ A + B + (1|words) + (1|subjects) )

(observe que deixei de fora intencionalmente data =e assumiremos que sempre quero dizer REML = FALSEcom clareza)

Agora, dos seguintes modelos, quais são aceitáveis ​​para comparar com uma razão de verossimilhança ao modelo acima e quais não são?

m1 <- lmer( y ~ A + B + (A+B|words) + (1|subjects) )
m2 <- lmer( y ~ A + B + (1|subjects) )              
m3 <- lmer( y ~ A + B + (C|words) + (A+B|subjects) )
m4 <- lmer( y ~ A + B + (1|words) )                 
m5 <- lmer( y ~ A * B + (1|subjects) )   

Reconheço que a interpretação de algumas dessas diferenças pode ser difícil ou impossível. Mas vamos deixar isso de lado por um segundo. Eu só quero saber se há algo fundamental nas mudanças aqui que exclui a possibilidade de comparação. Também quero saber se, se os LRs estão bem, e as comparações da AIC também.

John
fonte
1
Relacionado: stats.stackexchange.com/questions/117497 . Veja também bbolker.github.io/mixedmodels-misc/… .
Ameba diz Reinstate Monica
(Eu notei que você removeu a tag [testando hipóteses] que eu adicionei anteriormente. Bem, depende de você, mas acho apropriado: o teste da razão de verossimilhança é claramente um procedimento de teste de hipóteses e [modelo misto] + [teste de hipóteses ] é IMHO uma combinação de tags informativa, consulte stats.stackexchange.com/questions/tagged/… )
ameba diz Reinstate Monica
Editado para remover "test" do LR. Os LRs podem ser interpretados sem teste e o tornam mais paralelo aos AICs e segue melhor minha intenção real. Obrigado por apontar isso.
John John

Respostas:

13

Usando a máxima probabilidade, qualquer um destes pode ser comparado com o AIC; se os efeitos fixos forem os mesmos ( m1para m4), usar REML ou ML é bom, com REML geralmente preferido, mas se forem diferentes, somente ML pode ser usado. No entanto, a interpretação geralmente é difícil quando os efeitos fixos e os aleatórios estão mudando; portanto, na prática, a maioria recomenda mudar apenas um ou o outro de cada vez.

O uso do teste da razão de verossimilhança é possível, mas confuso, porque a aproximação qui-quadrado usual não se aplica ao testar se um componente de variação é zero. Veja a resposta da Aniko para obter detalhes. (Parabéns à Aniko por ler a pergunta com mais cuidado do que eu e por ler a resposta original com cuidado o suficiente para perceber que ela perdeu esse ponto. Obrigado!)

Pinhiero / Bates é a referência clássica; descreve o nlmepacote, mas a teoria é a mesma. Bem, principalmente o mesmo; Doug Bates mudou suas recomendações sobre inferência desde que escreveu esse livro e as novas recomendações estão refletidas no lme4pacote. Mas é mais do que quero entrar aqui. Uma referência mais legível é Weiss (2005), Modeling Longitudinal Data.

Aaron - Restabelecer Monica
fonte
os modelos m2 e m4 ou m1 e m3 não puderam ser comparados com o teste da razão de verossimilhança. Eles não são modelos aninhados.
Macro
Opa, obrigado por assistir, @Macro! Veja editar.
Aaron - Restabelece Monica
A questão era apenas comparar os modelos com o modelo m, não entre si. Mas, no entanto, você está dizendo que as comparações da AIC podem ser feitas mesmo quando não estão aninhadas? As respostas a essa pergunta parecem contradizer isso.
John
@ John, eu li essas respostas, mas errei onde se discute AIC e não aninhado. Tenho certeza de que está tudo bem, mas você pode me dar um ponteiro mais preciso para esse ponto nas respostas?
Aaron - Restabelece Monica
A resposta foi negativa, porque você está errado (ou pelo menos enganoso) sobre a aplicabilidade do teste da razão de verossimilhança.
Aniko
12

mmm4σ2=0

mm212χ12+12χ02χ12

No entanto, como a @Aaron afirmou, muitos especialistas não recomendam fazer um teste de razão de verossimilhança como este. Alternativas potenciais são os critérios de informação (AIC, BIC, etc.) ou a inicialização do LRT.

[1] Self, SG & Liang, K. Propriedades assintóticas de estimadores de máxima verossimilhança e testes de razão de verossimilhança sob condições fora do padrão J. Amer. Statist. Assoc., 1987, 82, 605-610.

Aniko
fonte
1
Obrigado pela informação LR. Eu realmente não tinha pensado na questão dos limites da LR ao fazer os modelos para o exemplo. Acabei de notar que não está claro em sua resposta se suas recomendações se aplicam a casos simples, como apenas comparar modelos com diferentes efeitos fixos (ML estimado, é claro).
John
Não, esse problema só aparece ao testar os componentes de variação, não os efeitos fixos.
Aaron - Restabelece Monica