Em outra pergunta minha , um respondente usou a seguinte derivação do coeficiente de OLS:
Temos um modelo: onde Z não é observado. Então temos: plim
ondeX ∗ 1 =M2X1eM2=[I-X2(X ′ 2 X2)-1X ′ 2 ].
Isso parece diferente do usual que eu já vi na Econometria. Existe uma exposição mais explícita dessa derivação? Existe um nome para o M 2 matriz?
econometrics
regression
Heisenberg
fonte
fonte
Respostas:
A matriz é o "aniquilador" ou matriz de "máquina residual" associado com a matriz X . É chamado de "aniquilador" porque M X = 0 (para sua própria matriz X, é claro). Está é chamado de "criador residual" porque M y = e , na regressão y = X β + e .M = I - X ( X′X )- 1X′ X M X =0 X M y = e^ y = X β+ e
É uma matriz simétrica e idempotente. É usado na prova do teorema de Gauss-Markov.
Além disso, é usado no teorema de Frisch-Waugh-Lovell , a partir do qual é possível obter resultados para a "regressão particionada", que diz que no modelo (em forma de matriz)
nós temos isso
Como é idempotente, podemos reescrever o acimaM2
e desde também é simétrica temosM2
Mas este é o estimador de mínimos quadrados do modelo
e também são os resíduos de regressão y na matriz X 2 somente.M2y y X2
Por outras palavras: 1) Se regridem na matriz X 2 apenas, e então regride os resíduos deste estimativa sobre a matriz H 2 X 1 única, os β 1 estimativas obteremos serão matematicamente igual ao estimativas nós obterá se regredir y em ambos X 1 e X 2 juntos, ao mesmo tempo, como uma regressão múltipla habitual.y X2 M2X1 β^1 y X1 X2
Agora, assuma que não é uma matriz, mas apenas um regressor, digamos x 1 . Em seguida, H 2 x 1 representa os resíduos de regredir a variável X 1 na matriz regressor X 2 . E isso proporciona a intuição aqui: β 1 nos dá o efeito que "a parte de X 1 que é inexplicável pela X 2 " tem de "a parte de Y que resta inexplicável por X 2 ".X1 x1 M2x1 X1 X2 β^1 X1 X2 Y X2
Esta é uma parte emblemática da álgebra de mínimos quadrados clássica.
fonte