Douglas Bates afirma que os seguintes modelos são equivalentes "se a matriz de variância-covariância para efeitos aleatórios com valor vetorial tiver uma forma especial, chamada simetria composta" ( slide 91 desta apresentação ):
m1 <- lmer(y ~ factor + (0 + factor|group), data)
m2 <- lmer(y ~ factor + (1|group) + (1|group:factor), data)
Especificamente, Bates usa este exemplo:
library(lme4)
data("Machines", package = "MEMSS")
m1a <- lmer(score ~ Machine + (0 + Machine|Worker), Machines)
m2a <- lmer(score ~ Machine + (1|Worker) + (1|Worker:Machine), Machines)
com as saídas correspondentes:
print(m1a, corr = FALSE)
Linear mixed model fit by REML ['lmerMod']
Formula: score ~ Machine + (0 + Machine | Worker)
Data: Machines
REML criterion at convergence: 208.3112
Random effects:
Groups Name Std.Dev. Corr
Worker MachineA 4.0793
MachineB 8.6253 0.80
MachineC 4.3895 0.62 0.77
Residual 0.9616
Number of obs: 54, groups: Worker, 6
Fixed Effects:
(Intercept) MachineB MachineC
52.356 7.967 13.917
print(m2a, corr = FALSE)
Linear mixed model fit by REML ['lmerMod']
Formula: score ~ Machine + (1 | Worker) + (1 | Worker:Machine)
Data: Machines
REML criterion at convergence: 215.6876
Random effects:
Groups Name Std.Dev.
Worker:Machine (Intercept) 3.7295
Worker (Intercept) 4.7811
Residual 0.9616
Number of obs: 54, groups: Worker:Machine, 18; Worker, 6
Fixed Effects:
(Intercept) MachineB MachineC
52.356 7.967 13.917
Alguém pode explicar a diferença entre os modelos e como se m1
reduz a m2
(dada simetria composta) de maneira intuitiva?
r
anova
mixed-model
repeated-measures
lme4-nlme
statmerkur
fonte
fonte
lme4
sintaxe. Seria útil - e ampliaria o grupo de possíveis respondedores - se você os explicasse para pessoas não familiarizadaslme4
.Respostas:
Neste exemplo, há três observações para cada combinação das três máquinas (A, B, C) e os seis trabalhadores. Usarei para denotar uma matriz de identidade n- dimensional e 1 n para denotar um vetor n- dimensional de uns. Digamos que y é o vetor de observações, que assumirei que é ordenado pelo trabalhador e depois pela máquina e depois pela replicação. Seja μ os valores esperados correspondentes (por exemplo, os efeitos fixos) e γ seja um vetor de desvios específicos do grupo aos valores esperados (por exemplo, os efeitos aleatórios). Condicional em γ , o modelo para y pode ser escrito:In n 1n n y μ γ γ y
onde é a variação "residual".σ2y
Para entender como a estrutura de covariância dos efeitos aleatórios induz uma estrutura de covariância entre as observações, é mais intuitivo trabalhar com a representação "marginal" equivalente , que se integra aos efeitos aleatórios . A forma marginal deste modelo é,γ
Aqui, é uma matriz de covariância que depende da estrutura de γ (por exemplo, os "componentes de variância" subjacentes aos efeitos aleatórios). Vou me referir a Σ como a covariância "marginal".Σ γ Σ
No seu caso
m1
, os efeitos aleatórios se decompõem como:Para você
m2
, os efeitos aleatórios se decompõem em:m2
So ...σ2θ≡σ2ω and τ2≡σ2η . If
m1
assumed compound symmetry (which it doesn't with your call to lmer, because the random effects covariance is unstructured).Brevity is not my strong point: this is all just a long, convoluted way of saying that each model has two variance parameters for the random effects, and are just two different ways of writing of the same "marginal" model.
In code ...
fonte