Nos métodos MCMC , continuo lendo sobre o burn-in
tempo ou o número de amostras para "burn"
. O que é isso exatamente e por que é necessário?
Atualizar:
Depois que o MCMC se estabiliza, ele permanece estável? Como a noção de burn-in
tempo está relacionada à noção de tempo de mistura?
Respostas:
O Burn-in visa dar tempo à Cadeia de Markov para alcançar sua distribuição de equilíbrio, principalmente se tiver começado de um péssimo ponto de partida. Para "queimar" uma cadeia, basta descartar as primeiras amostras antes de começar a coletar pontos.n
A idéia é que um ponto de partida "ruim" possa sobre-amostrar regiões com probabilidade muito baixa sob a distribuição de equilíbrio antes de se estabelecer na distribuição de equilíbrio. Se você jogar fora esses pontos, os pontos que devem ser improváveis serão adequadamente raros.
Esta página fornece um bom exemplo, mas também aponta que o burn-in é mais um hack / artform do que uma técnica baseada em princípios. Em teoria, você poderia apenas experimentar por um tempo muito longo ou encontrar uma maneira de escolher um ponto de partida decente.
Edit: O tempo de mistura se refere a quanto tempo a cadeia leva para se aproximar de seu estado estacionário, mas geralmente é difícil calcular diretamente. Se você soubesse o tempo de mixagem, simplesmente descartaria muitas amostras, mas em muitos casos, não. Assim, você escolhe um tempo de queima que, esperançosamente, é suficientemente grande.
Tanto quanto a estabilidade - depende. Se sua cadeia convergiu, então ... ela convergiu. No entanto, também existem situações em que a cadeia parece ter convergido, mas na verdade está apenas "saindo" em uma parte do espaço de estados. Por exemplo, imagine que existem vários modos, mas cada modo está mal conectado aos outros. Pode levar muito tempo para o amostrador atravessar essa lacuna e parecerá que a corrente convergiu até o salto.
Existem diagnósticos para convergência, mas muitos deles têm dificuldade em diferenciar verdadeira convergência e pseudo-convergência. O capítulo de Charles Geyer (# 1) no Manual da Cadeia de Markov Monte Carlo é bastante pessimista sobre tudo, exceto administrar a cadeia o máximo de tempo possível.
fonte
O algoritmo Metropolis-Hastings coleta amostras aleatoriamente da distribuição posterior. Normalmente, as amostras iniciais não são completamente válidas porque a cadeia de Markov não se estabilizou na distribuição estacionária. A gravação em amostras permite descartar essas amostras iniciais que ainda não estão estacionárias.
fonte