Devo ensinar o teorema de Frish Waugh em econometria, que não estudei.
Entendi a matemática por trás disso e espero que a idéia também "o coeficiente obtido para um determinado coeficiente de um modelo linear múltiplo seja igual ao coeficiente do modelo de regressão simples se você" eliminar "a influência dos outros regressores". Então a ideia teórica é bem legal. (Se eu totalmente entendi mal, recebo uma correção)
Mas tem alguns usos clássicos / práticos?
EDIT : Aceitei uma resposta, mas ainda estou disposto a ter novas que tragam outros exemplos / aplicações.
regression
econometrics
least-squares
projection
decomposition
Anthony Martin
fonte
fonte
Respostas:
Considere o modelo de dados do painel de efeitos fixos, também conhecido como modelo LSDV (Least Squares Dummy Variables).
pode ser calculada aplicando OLS diretamente ao modelo y = X β + D α + ϵ , onde D é umamatriz N T × N de manequins e αbLSDV
Outra maneira de calcular é aplicar a chamada transformação dentro do modelo usual, a fim de obter uma versão menosprezada, ou seja, M [ D ] y = M [ D ] X β + M [ D ] ϵ . Aqui, M [ D ] = I - D ( D ′ D ) - 1 D ′ , a matriz fabricante residual de uma regressão embL SD V
Pelo teorema Frisch-Waugh-Lovell, os dois são equivalentes, como FWL diz que você pode calcular um subconjunto de coeficientes de regressão de uma regressão ) porβ^
A segunda versão é muito mais amplamente usada, porque os conjuntos de dados de painel típicos podem ter milhares de unidades de painel , de modo que a primeira abordagem exigiria a execução de uma regressão com milhares de regressores, o que não é uma boa ideia numericamente até hoje em dia com rapidez. computadores, como calcular o inverso de ( D : X ) ' ( D : X ) seria muito caro, considerando que rebaixando-tempo y e X é de pouco custo.N (D:X)′(D:X) y X
fonte
Aqui está uma versão simplificada da minha primeira resposta, que acredito ser menos relevante na prática, mas possivelmente mais fácil de "vender" para uso em sala de aula.
As regressões e y i - ˉ y = K Σ J = 2 β j ( x i j - ˉ x j ) + ~ ε i produzem idêntico β j , . Isso pode ser visto da seguinte forma: take x 1 =
fonte
Here is another, more indirect, but I believe interesting one, namely the connection between different approaches to computing the partial autocorrelation coefficient of a stationary time series.
Definition 1
Consider the projection
It thus gives the influence of them th lag on Yt \emph{after controlling for} Yt−1,…,Yt−m+1 . Contrast this with ρm , that gives the `raw' correlation of Yt and Yt−m .
How do we find theα(m)j ? Recall that a fundamental property of a regression of Zt on regressors Xt is that the coefficients are such that regressors and residuals are uncorrelated. In a population regression this condition is then stated in terms of population correlations. Then:
So, we sort of run a multiple regression and find one coefficient of interest while controlling for the others.
Definition 2
Them th partial correlation is the correlation of the prediction error of Yt+m predicted with Yt−1,…,Yt−m+1 with the prediction error of Yt predicted with Yt−1,…,Yt−m+1 .
So, we sort of first control for the intermediate lags and then compute the correlation of the residuals.
fonte