Problema: quero realizar uma amostragem de Gibbs para inferir algumas posteriores em um grande conjunto de dados. Infelizmente, meu modelo não é muito simples e, portanto, a amostragem é muito lenta. Eu consideraria abordagens variacionais ou paralelas, mas antes de ir tão longe ...
Pergunta: Gostaria de saber se poderia amostrar aleatoriamente (com substituição) do meu conjunto de dados a cada iteração Gibbs, para que eu tenha menos instâncias para aprender a cada etapa.
Minha intuição é que, mesmo que eu mude as amostras, eu não estaria alterando a densidade de probabilidade e, portanto, a amostra de Gibbs não deve perceber o truque. Estou certo? Existem algumas referências de pessoas que fizeram isso?
Respostas:
Sobre as estratégias de subamostragem: considere, por exemplo, duas observações e X 2 ∼ N ( μ 2 , σ 2 2 ) e considere colocar alguns antecedentes na média e variância. Seja θ = ( μ 1 , μ 2 , σ 2 1 , σ 2 2 ) , o posterior que queremos avaliar é f (X1 1∼ N( μ1 1, σ21 1) X2∼ N( μ2, σ22) θ = ( μ1 1, μ2, σ21 1, σ22) X 1 , se δ = 1 , escolhemos X 2 , o novo posterior é f ( θ , δ |
Considere agora uma variável binomial δ ∼ B ( 0,5 ) . Se δ = 0 , escolhemos X 1 , X 2 ) ∝ f ( X 1 , X 2 | δ , θ ) f ( θ ) f ( δ )
onde f ( X 1 ,
fonte