Como testar se uma matriz de covariância cruzada é diferente de zero?

11

Os antecedentes do meu estudo :

Em uma amostragem de Gibbs em que amostramos (a variável de interesses) e de e respectivamente, onde e são vetores aleatórios em dimensionais. Sabemos que o processo geralmente é dividido em duas etapas:Y P ( X | Y ) P ( Y | X ) X Y kXYP(X|Y)P(Y|X)XYk

  1. Período de gravação, onde descartamos todas as amostras. Denote as amostras como e .Y 1Y tX1XtY1Yt
  2. Período "Pós-gravação", em que calculamos a média das amostras como resultado final desejado.X¯=1ki=1kXt+i

No entanto, as amostras na sequência "after-burn-in" não são distribuídas independentemente. Portanto, se eu quiser inspecionar a variação do resultado final, ele se tornaráXt+1Xt+k

Var[X¯]=Var[i=1kXt+i]=1k2(i=1kVar[Xt+i]+i=1k1j=i+1kCov[Xt+i,Xt+j])

Aqui, o termo é uma matriz de covariância cruzada se aplica a qualquer com .k x k ( i , j ) i < jCov[Xt+i,Xt+j]k×k(i,j)i<j

Por exemplo, eu tenho

Xt+1=(1,2,1)Xt+2=(1,0,2)Xt+3=(1,0,0)Xt+4=(5,0,1)

então eu poderia estimar a matriz de covariância comCov[Xt+i,Xt+i+1]

13i=13(Xt+iμt+i)(Xt+i+1μt+i+1)

Agora, estou interessado em saber se a estimativa resultante é significativamente diferente de zero, para que eu precise incluí-la na minha estimativa de variação de .Var[X¯]

Então, aqui estão minhas perguntas :

  1. Nós amostra a partir de . Como está mudando, acho que e não são da mesma distribuição, portanto, não é o mesmo que . Esta afirmação está correta? P ( X t + i | Y t + i ) Y t + i X t + i X t + i + 1 Cov [ X t + i , X t + j ] Cov [ X t + i , X t + i ]Xt+iP(Xt+i|Yt+i)Yt+iXt+iXt+i+1Cov[Xt+i,Xt+j]Cov[Xt+i,Xt+i]
  2. Suponha que eu tenha dados suficientes para estimar (amostras vizinhas na sequência), existe alguma maneira de testar se a matriz de covariância é significativamente matriz diferente de zero? Em termos gerais, estou interessado em um indicador que me leve a algumas matrizes de covariância cruzada significativas que devem ser incluídas na minha estimativa final de variância.Cov[Xt+i,Xt+i+1]
TomHall
fonte
4
Na verdade, agora isso parece uma boa pergunta; Eu acho que outras pessoas estarão em melhor posição para dar boas respostas do que eu, então eu gostaria de promover isso (coloque uma recompensa) quando ele se tornar elegível em breve. [Respostas breves: 1. Essas duas covariâncias são diferentes. 2. Você não precisa testar se as variáveis ​​consecutivas estão correlacionadas (em todos os casos, exceto os mais triviais; o algoritmo funciona gerando variáveis ​​dependentes) - mais interessante para medir a correlação do que testá-la;] ... se boas respostas não aparecem Eu vou expandir esses pequenos comentários em uma resposta completa
Glen_b -Reinstar Monica
4
Parece que sua pergunta é muito mais ampla que a pergunta do título. Abordando especificamente a questão do título, há o teste de esfericidade de Bartlett que permite testar se uma matriz de covariância de amostra é diagonal. Você provavelmente precisaria adaptá-lo ao seu cenário de covariância cruzada (sua "matriz de covariância" na verdade não é realmente uma matriz de covariância, é uma matriz de covariância cruzada; é um bloco fora da diagonal da matriz de covariância completa de X_t e X_ { t + 1} juntos). CC para @Glen_b.
Ameba diz Reinstate Monica
2
Eu acrescentaria que as covariâncias tendem a decair mais ou menos geometricamente (cada vez mais à medida que você se afasta); valores distantes no tempo tendem a ter uma correlação muito baixa ( não zero, mas em grande parte ignorável), enquanto aqueles próximos uns dos outros podem às vezes ser bastante dependentes.
Glen_b -Reinstala Monica
1
@ Tom 1. No entanto, com séries estacionárias, em defasagens muito distantes (4 não está distante!), O que acontece com o ACF? 2. Você sabe algo sobre como os valores gerados do MCMC funcionam que você não pode dizer sobre séries temporais arbitrárias ... elas são markovianas . Você notará que meus comentários anteriores não afirmam que os atrasos mais próximos devem mostrar decaimento geométrico (por exemplo, eu não disse que era impossível ver uma correlação mais alta no atraso 4 do que 3). Você ainda terá (se certas condições persistirem) tendência à deterioração geométrica no ACF à medida que se afastam.
Glen_b -Reinstala Monica
2
Se o seu período de amostragem é tão curto que você não tem estimativas altamente precisas da covariância cruzada, pode ser necessário apenas lidar com o fato de que suas estimativas dos termos da covariância cruzada apresentam um erro padrão amplo. Dado meu entendimento atual, vou reafirmar ainda mais fortemente minha objeção a testar as correlações. O teste de hipótese para correlações zero vs diferentes de zero não aborda seu problema aqui.
Glen_b -Reinstala Monica

Respostas:

1
  1. Nós amostra a partir de . Como está mudando, acho que e não são da mesma distribuição [...] P ( X t + i | Y t + i ) Y t + i X t + i X t + i + 1Xt+iP(Xt+i|Yt+i)Yt+iXt+iXt+i+1

Você está confundindo distribuições condicionais e incondicionais aqui, veja também minha próxima observação. Condicional em e , . Mas toda a ponto de construir seu sampler Gibbs é a amostra a partir das distribuições estacionárias de e . Em termos gerais, se você administra sua cadeia por tempo suficiente e, para que siga a distribuição estacionária, você pode dizer o que significa que a distribuição incondicional de também é invariável. Em outras palavras, comoYt+i=y1Yt+i+1=y2P(Xt+i|Yt+i=y1)P(Xt+i+1|Yt+i+1=y2)XY{Yt}

P(Xt)=YP(Xt|Yt)dP(Yt),
Xtt e convergimos para as distribuições estacionárias, , uma vez que e serão assintoticamente retirados da (a mesma!) distribuição estacionária . Por outro lado, e como antes, uma vez que condicionemos e , isso não será mais válido, independentemente do tamanho .P(Xt+i|Yt+i)=P(Xt+i+1|Yt+i+1)Yt+iYt+i+1P(Yt)Yt+i=y1Yt+i+1=y2t

[...] nome não é o mesmo que . Esta afirmação está correta?Cov[Xt+i,Xt+j]Cov[Xt+i,Xt+i]

Sim, isso está correto - mesmo que , ou seja, e tenham a mesma distribuição estacionária. Eu sei que isso pode ser confuso, mas tenha paciência comigo. Defina com . Por substituição iterada, pode-se mostrar que , e como (infinitas) somas de normais ainda são normais, ele sustenta que e para que . Claramente, eXt+1XtXtXt+1Yt=0.8Yt1+εtεtiidN(0,1)Yt=i=0t0.8iεti Ytiid~N(0,1Var(Yt)=i=0t0.82i=110.82YtYt+1Yt+1YtXtYtiidN(0,110.82)YtYt+1ainda estarão correlacionados, mas também serão da mesma distribuição ( ). Uma situação semelhante se aplica ao seu .Yt+1YtXt

  1. Suponha que eu tenha dados suficientes para estimar (amostras vizinhas na sequência), existe alguma maneira de testar se a matriz de covariância é significativamente matriz diferente de zero? Em termos gerais, estou interessado em um indicador que me leve a algumas matrizes de covariância cruzada significativas que devem ser incluídas na minha estimativa final de variância.Cov[Xt+i,Xt+i+1]

Bem, se você tiver infinitas observações, todas elas serão significativas eventualmente. Claramente, você não pode fazer isso na prática, mas existem maneiras de "cortar" a expansão após alguns termos, veja a excelente resposta aceita aqui. Basicamente, você define um kernel que decai para e atribui pesos às primeiras matrizes de covariância que você pode calcular. Se você quiser escolher de uma maneira em princípios, terá que se aprofundar um pouco na literatura, mas o post que eu vinculei fornece boas referências para fazer exatamente isso.0 l T l Tk()0lTlT

Jeremias K
fonte