Os antecedentes do meu estudo :
Em uma amostragem de Gibbs em que amostramos (a variável de interesses) e de e respectivamente, onde e são vetores aleatórios em dimensionais. Sabemos que o processo geralmente é dividido em duas etapas:Y P ( X | Y ) P ( Y | X ) X Y k
- Período de gravação, onde descartamos todas as amostras. Denote as amostras como e .Y 1 ∼ Y t
- Período "Pós-gravação", em que calculamos a média das amostras como resultado final desejado.
No entanto, as amostras na sequência "after-burn-in" não são distribuídas independentemente. Portanto, se eu quiser inspecionar a variação do resultado final, ele se tornará
Aqui, o termo é uma matriz de covariância cruzada se aplica a qualquer com .k x k ( i , j ) i < j
Por exemplo, eu tenho
então eu poderia estimar a matriz de covariância com
Agora, estou interessado em saber se a estimativa resultante é significativamente diferente de zero, para que eu precise incluí-la na minha estimativa de variação de .
Então, aqui estão minhas perguntas :
- Nós amostra a partir de . Como está mudando, acho que e não são da mesma distribuição, portanto, não é o mesmo que . Esta afirmação está correta? P ( X t + i | Y t + i ) Y t + i X t + i X t + i + 1 Cov [ X t + i , X t + j ] Cov [ X t + i , X t + i ]
- Suponha que eu tenha dados suficientes para estimar (amostras vizinhas na sequência), existe alguma maneira de testar se a matriz de covariância é significativamente matriz diferente de zero? Em termos gerais, estou interessado em um indicador que me leve a algumas matrizes de covariância cruzada significativas que devem ser incluídas na minha estimativa final de variância.
Respostas:
Você está confundindo distribuições condicionais e incondicionais aqui, veja também minha próxima observação. Condicional em e , . Mas toda a ponto de construir seu sampler Gibbs é a amostra a partir das distribuições estacionárias de e . Em termos gerais, se você administra sua cadeia por tempo suficiente e, para que siga a distribuição estacionária, você pode dizer o que significa que a distribuição incondicional de também é invariável. Em outras palavras, comoYt+i=y1 Yt+i+1=y2 P(Xt+i|Yt+i=y1)≠P(Xt+i+1|Yt+i+1=y2) X Y {Yt}
Sim, isso está correto - mesmo que , ou seja, e tenham a mesma distribuição estacionária. Eu sei que isso pode ser confuso, mas tenha paciência comigo. Defina com . Por substituição iterada, pode-se mostrar que , e como (infinitas) somas de normais ainda são normais, ele sustenta que e para que . Claramente, eXt+1∼Xt Xt Xt+1 Yt=0.8⋅Yt−1+εt εt∼iidN(0,1) Yt=∑ti=00.8iεt−i Ytiid~N(0,1Var(Yt)=∑ti=00.82i=11−0.82 YtYt+1Yt+1∼YtXtYt∼iidN(0,11−0.82) Yt Yt+1 ainda estarão correlacionados, mas também serão da mesma distribuição ( ). Uma situação semelhante se aplica ao seu .Yt+1∼Yt Xt
Bem, se você tiver infinitas observações, todas elas serão significativas eventualmente. Claramente, você não pode fazer isso na prática, mas existem maneiras de "cortar" a expansão após alguns termos, veja a excelente resposta aceita aqui. Basicamente, você define um kernel que decai para e atribui pesos às primeiras matrizes de covariância que você pode calcular. Se você quiser escolher de uma maneira em princípios, terá que se aprofundar um pouco na literatura, mas o post que eu vinculei fornece boas referências para fazer exatamente isso.0 l T l Tk(⋅) 0 lT lT
fonte