Normalmente, trato de dados em que vários indivíduos são medidos várias vezes em cada uma de duas ou mais condições. Recentemente, tenho brincado com a modelagem de efeitos mistos para avaliar evidências de diferenças entre condições, modelando individual
como um efeito aleatório. Para visualizar a incerteza sobre as previsões de tal modelagem, eu tenho usado o bootstrap, onde em cada iteração do bootstrap, indivíduos e observações dentro das condições dentro dos indivíduos são amostrados com substituição e um novo modelo de efeito misto é calculado a partir do qual as previsões são obtidos. Isso funciona bem para dados que assumem erro gaussiano, mas quando os dados são binomiais, a inicialização pode demorar muito, pois cada iteração deve calcular um modelo de efeitos mistos binomiais relativamente intensivos em computação.
Pensei que eu poderia usar os resíduos do modelo original e usá-los em vez dos dados brutos no bootstrapping, o que me permitiria calcular um modelo de efeito misto gaussiano em cada iteração do bootstrap. A adição das previsões originais do modelo binomial dos dados brutos às previsões de inicialização de resíduos gera um IC de 95% para as previsões originais.
No entanto, recentemente codifiquei uma avaliação simples dessa abordagem, modelando nenhuma diferença entre duas condições e calculando a proporção de vezes que um intervalo de confiança de 95% falhou em incluir zero, e descobri que o procedimento de bootstrapping baseado em resíduos acima gera um resultado bastante anti- intervalos conservadores (excluem zero mais de 5% do tempo). Além disso, codifiquei (no mesmo link que o anterior) uma avaliação semelhante dessa abordagem aplicada aos dados originalmente gaussianos e obteve ICs anti-conservadores semelhantes (embora não tão extremos). Alguma idéia de por que isso pode ser?
fonte
Respostas:
Lembre-se de que todos os intervalos de confiança de inicialização são apenas assintoticamente no nível de confiança declarado. Também existem vários métodos possíveis para selecionar intervalos de confiança do autoinicializador O método do percentil de Efron, o método do percentil de Hall, autoinicialização dupla, autoinstrução t, autoinstrução inclinada, BC, BCa e talvez mais alguns. Você não nos disse qual método você usa. O artigo de Schenker no JASA 1985 mostrou que, para certas distribuições de qui-quadrado, o intervalo de confiança de auto-inicialização do BC subavaliava a porcentagem anunciada. Em problemas de tamanho pequeno de amostra, esse problema pode ser grave. LaBudde e eu temos dois trabalhos mostrando como em amostras pequenas o BCa pode ter uma cobertura muito baixa ao estimar uma variação de uma distribuição lognormal e existe um problema semelhante para testar a igualdade de duas variações. Isso é apenas para um problema simples. Espero que o mesmo possa acontecer com os resíduos de modelos mistos. Em nosso novo livro "Uma Introdução aos Métodos de Bootstrap com Aplicativos para R", publicado por Wiley em 2011, abordamos este tópico na Seção 3.7 e fornecemos referências. A surpresa é que o método do percentil às vezes se sai melhor que o método BCa preciso de ordem superior, quando o tamanho da amostra é pequeno.
fonte