Alguém pode explicar brevemente para mim, por que cada uma das seis suposições é necessária para calcular o estimador de OLS? Descobri apenas sobre multicolinearidade - que, se existir, não podemos inverter a matriz (X'X) e, por sua vez, estimar o estimador geral. E os outros (por exemplo, linearidade, zero de erros médios etc.)?
14
Respostas:
Você sempre pode calcular o estimador OLS, além do caso em que possui multicolinearidade perfeita. Nesse caso, você tem uma dependência multilinear perfeita em sua matriz X. Conseqüentemente, a suposição de classificação completa não é cumprida e você não pode calcular o estimador OLS, devido a problemas de invertibilidade.
Tecnicamente, você não precisa das outras suposições do OLS para calcular o estimador do OLS. No entanto, de acordo com o teorema de Gauss-Markov, você precisa cumprir a suposição OLS (suposições clrm) para que seu estimador seja AZUL.
Você pode encontrar uma extensa discussão sobre o teorema de Gauss-Markov e sua derivação matemática aqui:
http://economictheoryblog.com/2015/02/26/markov_theorem/
Além disso, se você estiver procurando uma visão geral da suposição de OLS, ou seja, quantas existem, o que elas exigem e o que acontece se você violar a única suposição de OLS, pode encontrar uma discussão elaborada aqui:
http://economictheoryblog.com/2015/04/01/ols_assumptions/
Espero que ajude, felicidades!
fonte
O seguinte é baseado em seções transversais simples, para séries temporais e painéis é um pouco diferente.
Agora, para as implicações.
Sob 1 - 6 (as premissas clássicas do modelo linear), o OLS é AZUL (melhor estimador imparcial linear), melhor no sentido de menor variância. Também é eficiente entre todos os estimadores lineares, bem como todos os estimadores que usam alguma função do x. Mais importante, de 1 a 6, o OLS também é o estimador imparcial de variância mínima. Isso significa que entre todos os estimadores imparciais (e não apenas o linear), o OLS tem a menor variação. OLS também é consistente.
Sob 1 - 5 (as suposições de Gauss-Markov), o OLS é AZUL e eficiente (como descrito acima).
Sob 1 - 4, o OLS é imparcial e consistente.
Na verdade, o OLS também é consistente, sob uma suposição mais fraca do que saber: ( 1 ) E ( u ) = 0 e ( 2 ) C o v ( x j , u ) = 0 . A diferença das suposições 4 é que, sob essa suposição, você não precisa definir perfeitamente a relação funcional.(4) (1) E(u)=0 (2) Cov(xj,u)=0
fonte
Um comentário em outra pergunta levantou dúvidas sobre a importância da condição , argumentando que ela pode ser corrigida pela inclusão de um termo constante na especificação de regressão e, portanto, "ela pode ser facilmente ignorada".E(u∣X)=0
Isto não é verdade. A inclusão de um termo constante na regressão absorverá a média condicional possivelmente diferente de zero do erro, se assumirmos que essa média condicional já é uma constante e não uma função dos regressores . Esta é a suposição crucial que deve ser feita independentemente de incluirmos um termo constante ou não:
Se este detém, em seguida, a média diferente de zero se torna um incômodo que pode simplesmente resolver através da inclusão de um termo constante.
Mas se isso não for válido (ou seja, se a média condicional não for uma constante zero ou não nula ), a inclusão do termo constante não resolverá o problema: o que "absorverá" nesse caso é uma magnitude isso depende da amostra específica e das realizações dos regressores. Na realidade, o coeficiente desconhecido associado à série de unidades não é realmente uma constante, mas variável, dependendo dos regressores através da média condicional não constante do termo de erro.
O que isso implica? Para simplificar, assumir o caso mais simples, em que ( i indexa as observações) mas que E ( u i | x i ) = h ( x i ) . Ou seja, que o termo de erro é de média-independente das variáveis explicativas, exceto de seus queridos contemporâneas (em X nós não incluem uma série de ones).E(ui∣X−i)=0 i E(ui∣xi)=h(xi) X
Suponha que especificamos a regressão com a inclusão de um termo constante (um regressor de uma série de um).
e notação de compactação
onde , Z = [ 1 : X ] , γ = ( um , p ) ' , ε = u - um .a=(a,a,a...)′ Z=[1:X] γ=(a,β)′ ε=u−a
Então o estimador OLS será
Para imparcialidade , precisamos de . MasE[ε∣Z]=0
que não pode ser zero para todos os , pois examinamos o caso em que h ( x i ) não é uma função constante. entãoi h(xi)
e
Além disso, o termo de erro tem uma média diferente para cada i , e também uma variação diferente (ou seja, é condicionalmente heterocedástico). Portanto, sua distribuição condicional nos regressores difere entre as observações i .ε i i
Mas isso significa que, mesmo que o termo de erro é assumida normal, então a distribuição do erro de amostragem γ - γ será normal, mas não mormal de média zero, e com viés desconhecido. E a variação será diferente. entãoui γ^−γ
Em outras palavras, as propriedades "amostra finita" desapareceram.
Ficamos apenas com a opção de recorrer a inferência assintoticamente válida , para a qual teremos que fazer suposições adicionais.
Em termos simples, a estrita exogeneidade não pode ser "facilmente ignorada" .
fonte