O teorema de Gauss-Markov nos diz que o estimador OLS é o melhor estimador linear imparcial para o modelo de regressão linear.
Mas suponha que eu não me importe com linearidade e imparcialidade. Então, existe algum outro estimador (possível não linear / tendencioso) para o modelo de regressão linear que é o mais eficiente sob as premissas de Gauss-Markov ou algum outro conjunto geral de premissas?
É claro que existe um resultado padrão: o OLS em si é o melhor estimador imparcial se, além das suposições de Gauss-Markov, também assumimos que os erros são normalmente distribuídos. Para alguma outra distribuição específica de erros, eu poderia calcular o estimador de probabilidade máxima correspondente.
Mas eu queria saber se existe algum estimador que seja melhor que o OLS em um conjunto relativamente geral de circunstâncias?
fonte
Não sei se você está bem com a estimativa de Bayes? Se sim, então, dependendo da função Perda, você pode obter diferentes estimativas da Bayes. Um teorema de Blackwell afirma que as estimativas de Bayes nunca são imparciais. Um argumento teórico da decisão declara que toda regra admissível ((ou qualquer outra regra com a qual ela é comparada) existe um valor do parâmetro para o qual o risco da regra atual é (estritamente) menor que o da regra contra a qual ela é sendo comparada)) é uma regra (generalizada) de Bayes.
Os estimadores de James-Stein são outra classe de estimadores (que podem ser derivados por métodos bayesianos assintoticamente) que são melhores que o OLS em muitos casos.
O OLS pode ser inadmissível em muitas situações e o James-Stein Estimator é um exemplo. (também chamado de paradoxo de Stein).
fonte
Há um bom artigo de revisão de Kay e Eldar sobre estimativa tendenciosa com o objetivo de encontrar estimadores com erro quadrado médio mínimo.
fonte