Digamos que temos um modelo
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
Aqui observamos um ajuste singular, porque a correlação entre efeitos de interceptação e x aleatórios é -1. Agora, de acordo com este link útil, uma maneira de lidar com esse modelo é remover efeitos aleatórios de ordem superior (por exemplo, X: CondiçãoB) e ver se isso faz diferença ao testar a singularidade. O outro é usar a abordagem bayesiana, por exemplo, o blme
pacote para evitar a singularidade.
Qual é o método preferido e por quê?
Estou perguntando isso porque usar o primeiro ou o segundo leva a resultados diferentes - no primeiro caso, removerei o efeito aleatório X: ConditionB e não poderei estimar a correlação entre os efeitos aleatórios X e X: ConditionB. Por outro lado, usar blme
me permite manter X: ConditionB e estimar a correlação fornecida. Não vejo razão para usar as estimativas não bayesianas e remover efeitos aleatórios quando ocorrem ajustes singulares quando posso estimar tudo com a abordagem bayesiana.
Alguém pode me explicar os benefícios e problemas usando qualquer um dos métodos para lidar com ataques singulares?
Obrigado.
fonte
Respostas:
Quando você obtém um ajuste singular, isso geralmente indica que o modelo está super ajustado, ou seja, a estrutura de efeitos aleatórios é muito complexa para ser suportada pelos dados, o que naturalmente leva ao aconselhamento para remover a parte mais complexa dos efeitos aleatórios estrutura (geralmente pistas aleatórias). O benefício dessa abordagem é que ela leva a um modelo mais parcimonioso que não é excessivamente ajustado.
No entanto, antes de fazer qualquer coisa, você tem um bom motivo para querer
X
,Condition
e a interação deles, para variar de assunto em primeiro lugar? A teoria de como os dados são gerados sugere isso?Se você deseja ajustar o modelo com a estrutura máxima de efeitos aleatórios e
lme4
obtiver um ajuste singular, o ajuste do mesmo modelo em uma estrutura bayesiana pode muito bem informá-lo por quelme4
houve problemas, inspecionando traços e quão bem as várias estimativas de parâmetros convergem . A vantagem de adotar a abordagem bayesiana é que, ao fazer isso, você poderá descobrir um problema com o modelo original, ou seja. o motivo pelo qual a estrutura máxima de efeitos aleatórios não é suportada pelos dados) ou pode descobrir por quelme4
não é possível ajustar o modelo. Eu encontrei situações em que um modelo bayesiano não converge bem, a menos que sejam usados anteriores informativos - o que pode ou não ser bom.Em suma, ambas as abordagens têm mérito.
No entanto, eu sempre começaria de um lugar onde o modelo inicial é parcimonioso e informado pelo conhecimento de domínio especializado para determinar a estrutura de efeitos aleatórios mais apropriada. A especificação de variáveis de agrupamento é relativamente fácil, mas as inclinações aleatórias geralmente não precisam ser incluídas. Apenas inclua-os se fizerem sentido teórico e se forem suportados pelos dados.
Edit: É mencionado nos comentários que existem boas razões teóricas para ajustar a estrutura máxima de efeitos aleatórios. Assim, uma maneira relativamente fácil para prosseguir com um modelo Bayesian equivalente é trocar a chamada para
glmer
comstan_glmer
a partir dorstanarm
pacote - que é projetado para ser plug and play. Ele possui prévios padrão, para que você possa montar rapidamente um modelo. O pacote também possui muitas ferramentas para avaliar a convergência. Se você achar que todos os parâmetros estão convergindo para valores plausíveis, está tudo bem. No entanto, pode haver uma série de problemas - por exemplo, uma variação sendo estimada em ou abaixo de zero, ou uma estimativa que continua a flutuar. O site mc-stan.org possui muitas informações e um fórum de usuários.fonte
Este é um tópico muito interessante, com respostas e comentários interessantes! Como isso ainda não foi mencionado, eu gostaria de ressaltar que temos muito poucos dados para cada sujeito (como eu o entendo). De fato, cada sujeito possui apenas dois valores para cada variável de resposta Y, variável categórica Condição e variável contínua X. Em particular, sabemos que os dois valores da Condição são A e B.
Se seguíssemos a modelagem de regressão em dois estágios em vez da modelagem de efeitos mistos, não poderíamos ajustar um modelo de regressão linear aos dados de um sujeito específico, conforme ilustrado no exemplo de brinquedo abaixo para um dos sujeitos:
A saída desse modelo específico de assunto seria:
Observe que o ajuste do modelo sofre singularidades, pois estamos tentando estimar 4 coeficientes de regressão mais o desvio padrão do erro usando apenas 2 observações.
As singularidades persistiriam mesmo se observássemos esse assunto duas vezes - e não uma vez - em cada condição. No entanto, se observássemos o sujeito três vezes sob cada condição, nos livraríamos das singularidades:
Aqui está a saída R correspondente para este segundo exemplo, da qual as singularidades desapareceram:
Obviamente, o modelo de efeitos mistos não se encaixa em modelos de regressão linear separados e não relacionados para cada sujeito - se encaixa em modelos "relacionados" cujas interceptações e / ou inclinações divergem aleatoriamente sobre uma interceptação e / ou inclinação típica, de modo que os desvios aleatórios da interceptação típica e / ou inclinação típica seguem uma distribuição Normal com zero médio e algum desvio padrão desconhecido.
Mesmo assim, minha intuição sugere que o modelo de efeitos mistos está lutando com a pequena quantidade de observações - apenas 2 - disponíveis para cada sujeito. Quanto mais o modelo é carregado com inclinações aleatórias, mais provavelmente ele sofre. Suspeito que, se cada sujeito contribuísse com 6 observações em vez de 2 (ou seja, 3 por condição), não seria mais difícil acomodar todas as pistas aleatórias.
Parece-me que este poderia ser (?) Um caso em que o desenho atual do estudo não suporta as ambições complexas de modelagem - para sustentar essas ambições, seriam necessárias mais observações sob cada condição para cada sujeito (ou pelo menos para algumas das assuntos?). Esta é apenas a minha intuição, por isso espero que outras pessoas possam adicionar suas idéias às minhas observações acima. Agradeço antecipadamente!
fonte