Teorema do Limite Central para Cadeias de Markov

10

O Teorema do Limite Central (CLT) afirma que, para X1,X2, independentes e distribuídos de forma idêntica (iid) com E[Xi]=0 e Var(Xi)< , a soma converge para uma distribuição normal como n :

i=1nXiN(0,n).

Suponha que X1,X2, formem uma cadeia Markov de estado finito com uma distribuição estacionária P com expectativa 0 e variação limitada. Existe uma extensão simples do CLT para este caso?

Os artigos que encontrei no CLT para cadeias de Markov geralmente tratam casos muito mais gerais. Ficaria muito grato por um ponteiro para o resultado geral relevante e uma explicação de como ele se aplica.

tom4everitt
fonte
11
O artigo Critical Behavior da Deep Dynamics, de Lin e Tegmark, aborda um pouco mais sobre as "limitações * dos processos e análises de Markov ... disponíveis aqui ... ai2-s2-pdfs.s3.amazonaws.com/5ba0/…
Mike Hunter

Respostas:

10

A resposta de Alex R. é quase suficiente, mas adiciono mais alguns detalhes. No Teorema do Limite Central da Cadeia de Markov - Galin L. Jones , se você observar o teorema 9, ele diz:

Se é uma cadeia de Markov ergódica de Harris com distribuição estacionária , um CLT vale para se é uniformemente ergódico e .XπfXE[f2]<

Para espaços de estado finitos, todas as cadeias de Markov irredutíveis e aperiódicas são uniformemente ergódicas. A prova disso envolve alguns antecedentes consideráveis ​​na teoria das cadeias de Markov. Uma referência boa seria Page 32, na parte inferior do Teorema 18 aqui .

Portanto, a cadeia de Markov CLT manteria qualquer função que tenha um segundo momento finito. O formulário que o CLT assume é descrito a seguir.f

Seja o estimador de , então como Alex R. aponta, como , f¯nEπ[f]n

f¯n=1ni=1nf(Xi)a.s.Eπ[f].

A cadeia de Markov CLT é

n(f¯nEπ[f])dN(0,σ2),

onde

σ2=Varπ(f(X1))Expected term+2k=1Covπ(f(X1),f(X1+k))Term due to Markov chain.

Uma derivação para o termo pode ser encontrada na página 8 e na página 9 das notas do Charles Geyer no MCMC aquiσ2

Greenparker
fonte
Obrigado, está muito claro! Existe um argumento fácil de por que as cadeias de Markov de estado finito, irredutíveis e periódicas são uniformemente ergódicas? (não que eu não confie em você ^^).
tom4everitt
@ tom4everitt Infelizmente, a definição de "fácil" é subjetiva. Se você está familiarizado com as condições de desvio e minorização para cadeias de Markov, o argumento é fácil. Caso contrário, seria um longo argumento. Vou tentar encontrar uma referência em seu lugar. Pode demorar um pouco.
Greenparker
Isso seria demais. Se você não encontrar nenhuma, algumas frases sugerindo as etapas principais ainda serão úteis.
tom4everitt
@ tom4everitt Adicionou uma referência à resposta. Espero que seja suficiente.
Greenparker
@ Greenparker Posso pedir ajuda para entender como a variação na sua resposta é derivada. Examinei a referência na sua resposta, mas não encontrei uma derivação lá. Eu tenho uma fonte, MC para MCsist, mas não entendo completamente como ela é derivada lá. Ou seja, como é derivado o termo ? Obrigado! σ2
LeastSquaresWonderer
7

O resultado "usual" para as cadeias de Markov é o Teorema Ergódico de Birkhoff, que diz que

1ni=1nf(Xi)Eπ[f],

onde é a distribuição estacionária satisfaz , e a convergência é quase certa.f E | f ( X 1 ) | < πfE|f(X1)|<

Infelizmente, as flutuações dessa convergência são geralmente bastante difíceis. Isso se deve principalmente à extrema dificuldade de determinar os limites totais de variação da rapidez com que converge para a distribuição estacionária . Existem casos conhecidos em que as flutuações são análogas ao CLT e você pode encontrar algumas condições no desvio que fazem a analogia se manter: No Teorema do Limite Central da Cadeia de Markov - Galin L. Jones (consulte o Teorema 1). πXiπ

Também existem situações estúpidas, por exemplo, uma cadeia com dois estados, em que um está absorvendo (ou seja, e Nesse caso, não há flutuações e você obter convergência para uma distribuição normal degenerada (uma constante).P ( 2 1 ) = 0P(12)=1P(21)=0

Alex R.
fonte
2
Não acho que ele esteja perguntando sobre convergência quase certa. Acho que ele quer uma espécie de 'tradução' de algumas das CLT em espaços gerais: provavelmente uma explicação do que os pressupostos necessários significa no contexto específico de cadeias de espaço de estado finito
Taylor
Obrigado. Uma cadeia de Markov normal, agradável e de estado finito satisfaria trivialmente a condição de deriva? Eu ficaria feliz em saber disso por apenas uma cadeia de dois estados, mas está longe de ser óbvio para mim como provar isso.
Tom4everitt 3/11