Se o encolhimento é aplicado de maneira inteligente, ele sempre funciona melhor para estimadores mais eficientes?

11

Suponha que eu tenho dois estimadores e que são estimadores consistentes do mesmo parâmetro e que com no sentido psd. Portanto, assintoticamente é mais eficiente que . Esses dois estimadores são baseados em diferentes funções de perda. β 2β0β^1β^2β0V1V2 β 1 β 2

n(β^1β0)dN(0,V1),n(β^2β0)dN(0,V2)
V1V2β^1β^2

Agora, quero procurar algumas técnicas de contração para melhorar as propriedades de amostras finitas dos meus estimadores.

Suponha que eu encontrei uma técnica de encolhimento que aprimore o estimador em uma amostra finita e me dê o valor de MSE igual a . Isso implica que eu posso encontrar uma técnica de encolhimento adequada para aplicar a que me dará o MSE não maior que ? γ 2 β 1β^2γ^2β^1 γ^2

Em outras palavras, se o encolhimento é aplicado de maneira inteligente, ele sempre funciona melhor para estimadores mais eficientes?

Alik
fonte

Respostas:

4

Deixe-me sugerir um contra-exemplo reconhecidamente um pouco chato. Dizer que β 1 não é apenas assintoticamente mais eficiente do que β 2 , mas também atinge a Cramer Rao Limite Inferior. Uma técnica encolhimento inteligente para β 2 seria: p * 2 = w β 2 + ( 1 - W ) β 1 com w ( 0 , 1 ) . A variância assintótica de β * 2β^1β^2β^2

β^2=wβ^2+(1w)β^1
w(0,1)β^2é onde a última igualdade usa o Lema em
V=Avar(wβ^2+(1w)β^1)=Avar(w(β^2β^1)+β^1)=V1+w2(V2V1)
Artigo de Hausman . Temos portanto há uma melhoria do risco assintótico (não há termos de viés). Assim, encontramos uma técnica de encolhimento que dá alguma assintótica (e amostra, portanto, esperamos que finito) melhorias ao longo β 2 . No entanto, não existe encolhimento estimador semelhante β * 1 que se segue a partir deste procedimento.
V2V=V2(1w2)V1(1w2)0
β^2β^1

O ponto aqui, é claro, é que o encolhimento é feito em relação ao estimador eficiente e, portanto, não é aplicável ao próprio estimador eficiente. Isso parece bastante óbvio em um nível alto, mas eu acho que em um exemplo específico isso não é tão óbvio (o estimador MLE e Method of Moments para a distribuição uniforme pode ser um exemplo?).

Matthias Schmidtblaicher
fonte
1
Obrigado pelo exemplo interessante! (1) No entanto, não é claro para mim que esta deve ser considerada uma contra-exemplo: é tanto assintótica e não mostrar que β 1 não pode ser melhorado para ter a mesma ou menor risco. (Na verdade, o seu β * 2 automaticamente tem, na melhor das hipóteses, o mesmo risco que β 1 .) A fim de proporcionar um contra-exemplo, o risco de um estimador modificado β * 2 terá que ser menor do que o risco de β 1 , e não está claro que isso é possível com este esquema. β^1β^2β^1β^2β^1
user795305
β^2β^1β^2
1
β^j=fj(β^j)fjβ^2risk(β^2)risk(β^2)f1risk(β^1)risk(β^2)
f1f(β,x)risk(f(β^2,x))<risk(β^2)g(β,x)risk(g(β^1,x))<risk(β^1)
1
obrigado por compartilhar esses créditos, mesmo que eu realmente não tenha respondido à sua pergunta ...
Matthias Schmidtblaicher
-2

Esta é uma pergunta interessante, onde quero destacar alguns destaques primeiro.

  • Dois estimadores são consistentes
  • β^1β^2
  • As funções de perda não são as mesmas
  • um método de encolhimento é aplicado a um, para reduzir a variação que, por si só, resulta em um melhor estimador
  • Pergunta : Em outras palavras, se o encolhimento é aplicado de maneira inteligente, ele sempre funciona melhor para estimadores mais eficientes?

Fundamentalmente, é possível melhorar um estimador em uma certa estrutura, como uma classe imparcial de estimadores. No entanto, conforme indicado por você, diferentes funções de perda dificultam a situação, pois uma função de perda pode minimizar a perda quadrática e a outra minimiza a entropia. Além disso, o uso da palavra "sempre" é muito complicado, pois se um estimador é o melhor da classe, você não pode reivindicar um avaliador melhor, logicamente falando.

lpβy=xβ+eeN(0,σ2<)σxlpp=3p=2p1

Portanto, minha resposta para sua pergunta é sim, considerando que você assume a mesma família de estimadores e a mesma função de perda, além de suposições.

TPArrow
fonte
p1p=3p=2p
lpl1
β^1β^2pα^jp=argminααβ^j22+λαpj{1,2}p=2,3
obrigado @Ben, sinto que não temos um consenso na definição de encolhimento. Você considera isso como um pós-processo, mas eu como um processamento em linha. Acho que ambos estamos certos, pois a questão não está levando em conta o tipo de encolhimento. PS: Eu acho que o que você quer dizer com retração é como limiar rígido.
precisa saber é o seguinte
β^1β^2 β^1β^2