Considere um experimento com vários participantes humanos, cada um medido várias vezes em duas condições. Um modelo de efeitos mistos pode ser formulado (usando a sintaxe lme4 ) como:
fit = lmer(
formula = measure ~ (1|participant) + condition
)
Agora, digamos que eu queira gerar intervalos de confiança com inicialização para as previsões desse modelo. Acho que criei um método simples e computacionalmente eficiente, e tenho certeza de que não sou o primeiro a pensar nisso, mas estou tendo problemas para encontrar publicações anteriores que descrevam essa abordagem. Aqui está:
- Ajuste o modelo (como acima), chame isso de "modelo original"
- Obtenha previsões do modelo original, chame-as de "previsões originais"
- Obter resíduos do modelo original associado a cada resposta de cada participante
- Reamostrar os resíduos, amostrando participantes com substituição
- Ajuste um modelo linear de efeitos mistos com erro gaussiano aos resíduos , chame isso de "modelo provisório"
- Calcule previsões do modelo intermediário para cada condição (essas previsões serão muito próximas de zero), chame-as de "previsões intermediárias"
- Adicione as previsões intermediárias às previsões originais, chame o resultado de "redefinir as previsões"
- Repita as etapas 4 a 7 várias vezes, gerando uma distribuição de previsões de nova amostra para cada condição a partir da qual uma vez pode calcular ICs.
Eu vi procedimentos de "bootstrapping residual" no contexto de regressão simples (isto é, não um modelo misto), onde os resíduos são amostrados como a unidade de reamostragem e, em seguida, adicionados às previsões do modelo original antes de ajustar um novo modelo em cada iteração de o bootstrap, mas isso parece bastante diferente da abordagem que descrevo onde os resíduos nunca são reamostrados, as pessoas são e somente depoiso modelo provisório é obtido, as previsões do modelo original entram em jogo. Esse último recurso tem um benefício lateral muito bom: não importa a complexidade do modelo original, o modelo provisório pode sempre ser adequado como um modelo misto linear gaussiano, que pode ser substancialmente mais rápido em alguns casos. Por exemplo, recentemente tive dados binomiais e 3 variáveis preditivas, uma das quais eu suspeitava causar fortes efeitos não lineares, então tive que empregar a Modelagem Mista Aditiva Generalizada usando uma função de ligação binomial. A adaptação do modelo original nesse caso levou mais de uma hora, enquanto a montagem do LMM gaussiano em cada iteração levou apenas alguns segundos.
Eu realmente não quero reivindicar prioridade sobre isso, se já é um procedimento conhecido, por isso ficaria muito grato se alguém puder fornecer informações sobre onde isso pode ter sido descrito antes. (Além disso, se houver algum problema evidente com essa abordagem, informe-me!)
fonte
Respostas:
Meu livro Bootstrap Methods 2nd Edition tem uma bibliografia maciça até 2007. Portanto, mesmo que eu não aborde o assunto no livro, a referência pode estar na bibliografia. Obviamente, uma pesquisa no Google com as palavras-chave certas pode ser melhor. Freedman, Peters e Navidi fizeram bootstrapping para previsão em modelos de regressão linear e econométricos, mas não tenho certeza do que foi feito no caso do modelo misto. Os intervalos de previsão para regressão do artigo JASA de Stine, de 1985, para regressão é algo que você achará muito interessante se ainda não o viu.
fonte