Qual é a conexão entre a cadeia de Markov e a cadeia de Markov monte carlo

15

Estou tentando entender as cadeias de Markov usando SAS. Entendo que um processo de Markov é aquele em que o estado futuro depende apenas do estado atual e não do estado passado e existe uma matriz de transição que captura a probabilidade de transição de um estado para outro.

Mas então me deparei com esse termo: cadeia de Markov Monte Carlo. O que eu quero saber é se a Cadeia de Markov Monte Carlo está de alguma forma relacionada ao processo de Markov que eu descrevi acima?

Vencedor
fonte

Respostas:

9

Bem, sim, existe uma relação entre os dois termos, porque os empates do MCMC formam uma cadeia de Markov. De Gelman, Bayesian Data Analysis (3a ed), p. 265:

A simulação da cadeia de Markov (também chamada Monte Carlo da cadeia de Markov ou MCMC) é um método geral baseado em desenhar valores de de distribuições apropriadas e, em seguida, corrigi-los para melhor aproximar a distribuição posterior alvo, p ( θ | y ) . A amostragem é feita seqüencialmente, com a distribuição dos sorteios amostrados, dependendo do último valor sorteado; portanto, os sorteios formam uma cadeia de Markov.θp(θ|y)

Sycorax diz restabelecer Monica
fonte
Umm ok, mas por que eu preciso para tirar amostras aleatórias formar um processo de Markov, há tantos outros tipos de processos como normal, Bernoulli, possion etc.
Victor
2
@ Victor Acho que você perdeu de vista o caso de uso do MCMC. Utilizamos o MCMC na estatística bayesiana quando não há forma analítica da distribuição posterior.
Sycorax diz Restabelecer Monica
3
A estatística bayesiana +1 é talvez a aplicação mais óbvia do MCMC (onde a distribuição alvo é uma articulação posterior), mas não a única possível.
Glen_b -Reinstate Monica
18

A conexão entre os dois conceitos é que os métodos Monte Carlo da cadeia de Markov (aka MCMC) confiam na teoria da cadeia de Markov para produzir simulações e aproximações de Monte Carlo a partir de uma distribuição alvo complexa .π

Na prática, esses métodos de simulação produzem uma sequência que é uma cadeia de Markov, ou seja, de tal forma que a distribuição de X i, considerando todo o passado { X i - 1 , , X 1 }, depende apenas de X i - 1 . Em outras palavras, X i = f ( X i - 1 , ϵ i ) onde fX1,...,XNXEu{XEu-1,...,X1}XEu-1

XEu=f(XEu-1,ϵEu)
fé uma função especificada pelo algoritmo e a distribuição alvo e os ε i 's são iid. As garantias teoria (ergodic) que X i converge (na distribuição) para pi como i chega a .πϵEuXEuπEu

O exemplo mais fácil de um algoritmo MCMC é o amostrador de fatia : na iteração i deste algoritmo, faça

  1. simular ϵEu1você(0 0,1)
  2. XEuvocê({x;π(x)ϵEu1π(XEu-1)})ϵEu2

N(0 0,1)

  1. simular ϵ 1 i ∼ U ( 0 , 1 ϵEu1você(0 0,1)
  2. XEuvocê({x;x2-2registro(2πϵEu1})XEu=±ϵEu2{-2registro(2πϵEu1)φ(XEu-1)}1/2ϵEu2você(0 0,1)

ou em R

T=1e4
x=y=runif(T) #random initial value
for (t in 2:T){
  epsilon=runif(2)#uniform white noise 
  y[t]=epsilon[1]*dnorm(x[t-1])#vertical move       
  x[t]=sample(c(-1,1),1)*epsilon[2]*sqrt(-2*#Markov move from
        log(sqrt(2*pi)*y[t]))}#x[t-1] to x[t]

N(0 0,1)(XEu)topo: Histograma de 10⁴ iterações do amostrador de fatia e ajuste normal de N (0,1);  bottom: sequência $ (X_i) $

(XEu,ϵEu1π(XEu))

curve(dnorm,-3,3,lwd=2,col="sienna",ylab="")
for (t in (T-100):T){
lines(rep(x[t-1],2),c(y[t-1],y[t]),col="steelblue");
lines(x[(t-1):t],rep(y[t],2),col="steelblue")}

que segue movimentos verticais e horizontais da cadeia de Markov sob a curva de densidade alvo.100 últimos movimentos do amostrador de fatias

Xi'an
fonte