Existe um nome para esse tipo de inicialização?

9

Considere um experimento com vários participantes humanos, cada um medido várias vezes em duas condições. Um modelo de efeitos mistos pode ser formulado (usando a sintaxe lme4 ) como:

fit = lmer(
    formula = measure ~ (1|participant) + condition
)

Agora, digamos que eu queira gerar intervalos de confiança com inicialização para as previsões desse modelo. Acho que criei um método simples e computacionalmente eficiente, e tenho certeza de que não sou o primeiro a pensar nisso, mas estou tendo problemas para encontrar publicações anteriores que descrevam essa abordagem. Aqui está:

  1. Ajuste o modelo (como acima), chame isso de "modelo original"
  2. Obtenha previsões do modelo original, chame-as de "previsões originais"
  3. Obter resíduos do modelo original associado a cada resposta de cada participante
  4. Reamostrar os resíduos, amostrando participantes com substituição
  5. Ajuste um modelo linear de efeitos mistos com erro gaussiano aos resíduos , chame isso de "modelo provisório"
  6. Calcule previsões do modelo intermediário para cada condição (essas previsões serão muito próximas de zero), chame-as de "previsões intermediárias"
  7. Adicione as previsões intermediárias às previsões originais, chame o resultado de "redefinir as previsões"
  8. Repita as etapas 4 a 7 várias vezes, gerando uma distribuição de previsões de nova amostra para cada condição a partir da qual uma vez pode calcular ICs.

Eu vi procedimentos de "bootstrapping residual" no contexto de regressão simples (isto é, não um modelo misto), onde os resíduos são amostrados como a unidade de reamostragem e, em seguida, adicionados às previsões do modelo original antes de ajustar um novo modelo em cada iteração de o bootstrap, mas isso parece bastante diferente da abordagem que descrevo onde os resíduos nunca são reamostrados, as pessoas são e somente depoiso modelo provisório é obtido, as previsões do modelo original entram em jogo. Esse último recurso tem um benefício lateral muito bom: não importa a complexidade do modelo original, o modelo provisório pode sempre ser adequado como um modelo misto linear gaussiano, que pode ser substancialmente mais rápido em alguns casos. Por exemplo, recentemente tive dados binomiais e 3 variáveis ​​preditivas, uma das quais eu suspeitava causar fortes efeitos não lineares, então tive que empregar a Modelagem Mista Aditiva Generalizada usando uma função de ligação binomial. A adaptação do modelo original nesse caso levou mais de uma hora, enquanto a montagem do LMM gaussiano em cada iteração levou apenas alguns segundos.

Eu realmente não quero reivindicar prioridade sobre isso, se já é um procedimento conhecido, por isso ficaria muito grato se alguém puder fornecer informações sobre onde isso pode ter sido descrito antes. (Além disso, se houver algum problema evidente com essa abordagem, informe-me!)

Mike Lawrence
fonte
11
Apenas um comentário secundário, mas pode ser relevante. Peter McCullagh tem um artigo em Bernoulli, onde mostra que nenhum bootstrap calcula corretamente a variação em um modelo de efeitos aleatórios.
cardeal
@ Mike (+1) Essa é uma pergunta muito bem escrita!
chl
11
Por que você não reanalisa os participantes com a substituição e, em seguida, os dados também? Isso parece estar mais de acordo com o espírito de um modelo multinível com uma distribuição aninhada dentro de outra. Outro ponto é que há um problema em potencial com os dados binomiais porque as extremidades extremas das amostras terão menos probabilidade de convergir.
João
@ John: Eu prefiro reamostrar os resíduos porque (1) é mais rápido quando o modelo original é trabalhoso estimar e (2) produz ICs que removeram a variabilidade atribuível à variabilidade entre as médias dos participantes. # 2 significa que você não precisa criar vários gráficos quando deseja mostrar dados brutos e um efeito de medidas repetidas; basta plotar esses ICs removidos entre variações nos dados brutos e eles serão apropriados para comparação de condições repetidas em indivíduos. É verdade que pode haver confusão sobre o significado desses ICs, mas é para isso que servem as legendas das figuras.
Mike Lawrence
@ John: Você poderia elaborar seus medos em relação à aplicabilidade dessa abordagem aos dados binomiais?
Mike Lawrence

Respostas:

-1

Meu livro Bootstrap Methods 2nd Edition tem uma bibliografia maciça até 2007. Portanto, mesmo que eu não aborde o assunto no livro, a referência pode estar na bibliografia. Obviamente, uma pesquisa no Google com as palavras-chave certas pode ser melhor. Freedman, Peters e Navidi fizeram bootstrapping para previsão em modelos de regressão linear e econométricos, mas não tenho certeza do que foi feito no caso do modelo misto. Os intervalos de previsão para regressão do artigo JASA de Stine, de 1985, para regressão é algo que você achará muito interessante se ainda não o viu.

Michael R. Chernick
fonte