Estou executando algumas regressões e, como queria estar do lado seguro, decidi usar erros padrão de HAC (consistência de heterocedasticidade e autocorrelação) por toda parte. Pode haver alguns casos em que a correlação serial não está presente. De qualquer forma, é uma abordagem válida? Existem desvantagens?
time-series
least-squares
standard-error
robust
robust-standard-error
Juliett Bravo
fonte
fonte
Respostas:
Vagamente, ao estimar erros padrão:
Se você tiver dados suficientes, deve estar totalmente seguro, pois o estimador é consistente!
Como aponta Woolridge no seu livro Introductory Econometrics (p.247 6ª edição), uma grande desvantagem pode resultar de pequenos problemas de amostra, que você pode estar efetivamente descartando uma suposição (ou seja, sem correlação serial de erros), mas adicionando outra suposição . dados suficientes para o Teorema do Limite Central entrar em ação! HAC etc ... contam com argumentos assintóticos.
Se você tiver poucos dados para confiar nos resultados assintóticos:
Consulte esta resposta aqui para uma pergunta relacionada: https://stats.stackexchange.com/a/5626/97925
fonte
De fato, deve haver alguma perda de eficiência em amostras finitas, mas assintoticamente, você está do lado seguro. Para ver isso, considere o caso simples de estimar uma média da amostra (que é um caso especial de uma regressão na qual você apenas regride em uma constante):
Os estimadores de HAC estimam o erro padrão da média da amostra. Suponha que seja covariância estacionária com e modo que . E ( Y t ) = μ C o v ( Y t , Y t - j ) = γ j ∑ ∞ j = 0 | γ j | < ∞Yt E(Yt)=μ Cov(Yt,Yt−j)=γj ∑∞j=0|γj|<∞
Então, o que os erros padrão do HAC estimam é a raiz quadrada da "variação de longo prazo", fornecida por: Agora, se a série realmente não tiver correlação serial, então para , que o estimador HAC também "descobrirá" como , para que ele se reduza a um estimador da raiz quadrada da variação padrão .
fonte