Isso também foi solicitado na Ciência da Computação.
Estou tentando calcular uma estimativa bayesiana de alguns coeficientes para uma regressão automática, com 11 amostras de dados:
Com base na fórmula auto-regressão, isto significa que a distribuição dos pontos de dados (o ) são normal com média e variância . Assim, a densidade para todos os pontos de dados conjunto (assumindo independência, o que é bom para o programa que estou escrevendo) seria:
Pelo teorema de Bayes, podemos pegar o produto da densidade acima com a densidade anterior e depois precisaremos apenas da constante de normalização. Meu palpite é que isso deve funcionar como uma distribuição gaussiana, para que possamos nos preocupar com a constante de normalização no final, em vez de calculá-la explicitamente com integrais acima de e .
Esta é a parte com a qual estou tendo problemas. Como computo a multiplicação da densidade anterior (que é multivariada) e este produto de densidades de dados univariadas? O posterior precisa ser puramente uma densidade de e , mas não consigo ver como você conseguirá isso com esse produto.
Qualquer indicação é realmente útil, mesmo que você me aponte na direção certa e eu precise fazer a álgebra confusa (que é o que eu já tentei várias vezes).
Como ponto de partida, eis a forma do numerador da regra de Bayes:
A questão é como ver que isso reduz a uma densidade gaussiana de .
Adicionado
Em última análise, isso se resume ao seguinte problema geral. Se lhe for dada alguma expressão quadrática tal como como fazê-lo colocar em que uma forma quadrática ( μ - μ , α - α ) Q ( μ - μ , α - α ) t para alguns matriz 2x2 Q
Observe que tentei a opção direta de expandir a fórmula da matriz e depois tentar igualar os coeficientes como acima. O problema, no meu caso, é que a constante é zero e, em seguida, acabo obtendo três equações em duas incógnitas; portanto, é indeterminado apenas corresponder aos coeficientes (mesmo que assuma uma matriz de forma quadrática simétrica).
Respostas:
The clue that was in my answer to the previous answer is to look at how I integrated out the parameters - because you will do exactly the same integrals here. You question assumes the variance parameters known, so they are constants. You only need to look at theα,μ dependence on the numerator. To see this, note that we can write:
Notice how we can pull the first factor1(2πσ2e)5⋅2πσ2p out of the double integral on the denominator, and it cancels with the numerator. We can also pull out the sum of squares exp[−12σ2e∑11i=2Y2i] and it will also cancel. The integral we are left with is now (after expanding the squared term):
Now we can use a general result from the normal pdf.
Let me know if you need more clues.
update
(note: correct formula, should be10μ2 instead of μ2 )
if we look at the quadratic form you've written in the update, we notice there is5 coefficients (L is irrelevant for posterior as we can always add any constant which will cancel in the denominator). We also have 5 unknowns μ^,α^,Q11,Q12=Q21,Q22 . Hence this is a "well posed" problem so long as the equations are linearly independent. If we expand the quadratic (μ−μ^,α−α^)Q(μ−μ^,α−α^)t we get:
Comparing second order coefficient we getA=Q11,B=2Q12,C=Q22 which tells us what the (inverse) covariance matrix looks like. Also we have two slightly more complicated equations for α^,μ^ after substituting for Q . These can be written in matrix form as:
Thus the estimates are given by:
Showing that we do not have unique estimates unless4AC≠B2 . Now we have:
Note that if we defineXi=Yi−1 for i=2,…,11 and take the limit σ2p→∞ then the estimates for μ,α are given by the usual least squares estimate α^=∑11i=2(Yi−Y¯¯¯¯)(Xi−X¯¯¯¯¯)∑11i=2(Xi−X¯¯¯¯¯)2 and μ^=Y¯¯¯¯−α^X¯¯¯¯ where Y¯¯¯¯=110∑11i=2Yi and X¯¯¯¯=110∑11i=2Xi=110∑10i=1Yi . So the posterior estimates are a weighted average between the OLS estimates and the prior estimate (0,0) .
fonte