No presente documento , ( Bayesiana Inference para Variância Componentes Usando único erro Contraste , Harville, 1974), o autor afirma
para ser uma "relação bem conhecido", para uma regressão linear
onde
ε ~ N ( 0 , H ) .
Como isso é bem conhecido? Qual é a maneira mais simples de provar isso?
regression
regression-coefficients
heteroscedasticity
bias
linear-algebra
Sibbs Gambling
fonte
fonte
Respostas:
O último termo na equação pode ser escrito como
Nesta forma, a equação está dizendo algo interessante. Supondo que seja positivo definido e simétrico, o mesmo ocorre com o inverso. Portanto, podemos definir um produto interno , fornecendo-nos geometria. Então a igualdade acima está essencialmente dizendo isso, < x , y > H - 1 = x ' H - 1 y ( X β - X β ) ⊥ ( Y - X β ) .H < x , y>H- 1= x′H- 1y
Eu queria lhe dar essa intuição, já que um comentarista já deixou um link para a derivação.
Editar: Para a posteridade
LHS:
RHS:
Relação:
Ao conectar a relação, você pode mostrar que (B) = (F) e que 2 (E) = (D). Tudo feito.
fonte
Eles chegam a essa identidade por uma técnica chamada completar a praça. O lado esquerdo está em forma quadrática, então comece multiplicando-o
fonte
Se você conhece sua álgebra matricial, isso deve ser possível multiplicando tudo e verificando se você realmente tem o mesmo nos dois lados. Isto é o que jlimahaverford demonstrou.
fonte