Modelagem bayesiana usando normal multivariada com covariável

11

Suponha que você tenha uma variável explicativa que representa uma determinada coordenada. Você também tem uma variável de resposta . Agora, podemos combinar as duas variáveis ​​como:X=(X(s1),,X(sn))sY=(Y(s1),,Y(sn))

W(s)=(X(s)Y(s))N(μ(s),T)

Nesse caso, simplesmente escolhemos μ(s)=(μ1μ2)T e T é uma matriz de covariância que descreve o relação entre X e Y . Isso descreve apenas o valor de X e Y em s . Como temos mais pontos de outros locais para X e Y , podemos descrever mais valores de W(s) da seguinte maneira:

(XY)=N((μ11μ21),TH(ϕ))

Você notará que reorganizamos os componentes de X e Y para obter todos os X(si) em uma coluna e, depois disso, concatenar todos os Y(si) juntos. Cada componente H(ϕ)ij é uma função de correlação ρ(si,sj) e T é como acima. A razão temos a covariância TH(ϕ) é porque nós assumimos que é possível separar a matriz de covariância como C(s,s)=ρ(s,s)T .

Pergunta 1: Quando eu calculo o {\ bf {Y}} \ mid {\ bf {X}} condicional YX, o que realmente estou fazendo é gerar um conjunto de valores de Y base em X correto? Eu já tenho Y então estaria mais interessado em prever um novo ponto y(s0) . Nesse caso, eu deveria ter uma matriz H(ϕ) definida como

H(ϕ)=(H(ϕ)hhρ(0,ϕ))

em que h(ϕ) é um vetor ρ(s0sj;ϕ) . Portanto, podemos construir um vetor (sem rearranjo):

W=(W(s1),,W(sn),W(s0))TN(1n+1(μ1μ2),H(ϕ)T)

E agora apenas reorganizo para obter uma distribuição conjunta e obtenha o condicional . p(y( s 0 ) x 0 , X , Y )(Xx(s0)Yy(s0))p(y(s0)x0,X,Y)

Isso está correto?

Pergunta 2: Para prever, o artigo que estou lendo indica que devo usar essa distribuição condicional e obter uma posterior distribuição , mas não tenho certeza de como obter a distribuição posterior para os parâmetros. Talvez eu possa usar a distribuição que eu acho é exatamente o mesmo que e, em seguida, basta usar o teorema de Bayes para obterP ( μ , T , & Phi; | x ( s 0 ) , Y , X ) ( X x ( s 0 ) Y ) p ( X , X ( s 0 ) , Y | u , t , φ ) pp(y(s0)x0,X,Y)p(μ,T,ϕx(s0),Y,X)(Xx(s0)Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕX,x(s0),Y)p(X,x(s0),Yμ,T,ϕ)p(μ,T,ϕ)

Pergunta 3: No final do subcapítulo, o autor diz o seguinte:

Para previsão, não temos . Isso não cria novos problemas, pois pode ser tratado como uma variável latente e incorporada ao Isso resulta apenas em um empate adicional dentro de cada iteração Gibbs e é uma adição trivial à tarefa computacional. xX(s0)x

O que esse parágrafo significa?

A propósito, esse procedimento pode ser encontrado neste documento (página 8), mas como você pode ver, preciso de um pouco mais de detalhes.

Obrigado!

Robert Smith
fonte
Votou para migrar por solicitação de OP .
Eu diria correto para ambas as respostas às perguntas 1 e 2. A pergunta 3 significa que o não observado é tratado como um parâmetro adicional, além de , usando o condicional completo como anteriormente em . X(s0)μ,T,ϕ
p(x(s0)X,,Y,μ,T,ϕ)
X(s0)
Xian

Respostas:

2

Pergunta 1: Dado seu modelo de probabilidade conjunta a distribuição condicional de fornecido também é Normal, com média e matriz de variância-covariância

(XY)N((μ11μ21),[Σ11Σ12Σ21Σ22])=N((μ11μ21),TH(ϕ))
YX
μ2+Σ21Σ111(Xμ1)
Σ22Σ21Σ111Σ21.
(Essas fórmulas são copiadas literalmente da página da Wikipedia em normais multivariadas .) O mesmo se aplica a desde é outro vetor Normal.p(y(s0)x(s0),X,Y)(y(s0),x(s0),X,Y)

Pergunta 2: O preditivo é definido como ou seja, integrando os parâmetros usando a distribuição posterior desses posteriores, dados os dados atuais . Portanto, há um pouco mais na resposta completa. Obviamente, se você precisar simular apenas a partir do preditivo, sua noção de simular em conjunto a partir de e então de é válido.p(y(s0)x(s0),X,Y)

p(y(s0)|x(s0),X,Y)=p(y(s0)|x(s0),X,Y,μ,T,ϕ)p(μ,T,ϕ|x(s0),X,Y)dμdTdϕ,
(X,Y,x(s0))p(μ,T,ϕX,x(s0),Y)p(y(s0)x(s0),X,Y,μ,T,ϕ)

Pergunta 3: No caso em que não é observado, o par pode ser previsto a partir de outra previsão x(s0)(x(s0),y(s0))

p(x(s0),y(s0)X,Y)=p(x(s0),y(s0)X,Y,μ,T,ϕ)p(μ,T,ϕX,Y)dμdTdϕ.

Ao simular a partir dessa previsão, por não estar disponível de forma gerenciável, é possível executar um amostrador Gibbs que simula iterativamente

  1. μX,Y,x(s0),y(s0),T,ϕ
  2. TX,Y,x(s0),y(s0),μ,ϕ
  3. ϕX,Y,x(s0),y(s0),T,μ
  4. x(s0)X,Y,y(s0),ϕ,T,μ
  5. y(s0)X,Y,x(s0),ϕ,T,μ

ou mescle as etapas 4 e 5 em uma única etapa

  • x(s0),y(s0)X,Y,ϕ,T,μ
Xi'an
fonte