Sobre a existência de UMVUE e escolha do estimador de

10

Deixe ser uma amostra aleatória tirada a partir de população onde .(X1 1,X2,,Xn)N(θ,θ2)θR

Estou procurando o UMVUE de .θ

A densidade da junta de é(X1 1,X2,,Xn)

fθ(x1,x2,,xn)=i=1n1θ2πexp[12θ2(xiθ)2]=1(θ2π)nexp[12θ2i=1n(xiθ)2]=1 1(θ2π)nexp[1 1θEu=1 1nxEu-1 12θ2Eu=1 1nxEu2-n2]=g(θ,T(x))h(x)(x1 1,,xn)Rn,θR

, onde e h (\ mathbf x) = 1 .h(x)=1g(θ,T(x))=1 1(θ2π)nexp[1 1θEu=1 1nxEu-1 12θ2Eu=1 1nxEu2-n2]h(x)=1 1

Aqui, g depende de θ e de x1 1,,xn a T(x)=(Eu=1 1nxEu,Eu=1 1nxEu2) e h é independente de θ . Assim, pelo teorema da fatoração de Fisher-Neyman, a estatística bidimensional T(X)=(Eu=1 1nXEu,Eu=1 1nXEu2) é suficiente para θ .

No entanto, T não é uma estatística completa. Isso ocorre porque

Eθ[2(Eu=1 1nXEu)2-(n+1 1)Eu=1 1nXEu2]=2n(1 1+n)θ2-(n+1 1)2nθ2=0 0θ

e a função não é identicamente zero.g(T(X))=2(Eu=1 1nXEu)2-(n+1 1)Eu=1 1nXEu2

Mas eu sei que é uma estatística mínima suficiente.T

Não tenho certeza, mas acho que uma estatística completa pode não existir para essa família exponencial curvada. Então, como então devo obter o UMVUE? Se uma estatística completa não existir, um estimador imparcial (como , neste caso), que é uma função da estatística mínima suficiente, pode ser o UMVUE? (Tópico relacionado: Qual é a condição necessária para que um estimador imparcial seja UMVUE? )X¯

E se eu considerar o Melhor estimador linear não-viável (AZUL) de ? O AZUL pode ser o UMVUE?θ

Suponha que eu considere o estimador linear imparcial de que e . Desde que sabemos que . Minha idéia é minimizar para que seja o AZUL de . Would ser então o UMVUE de ?θ c ( n ) = T(X)=aX¯+(1a)cSθS2=1c(n)=n12Γ(n12)Γ(n2)Eθ(cS)=θVar(T)TθTθS2=1n1i=1n(XiX¯)2Eθ(cS)=θVar(T)TθTθ

Peguei um estimador linear imparcial baseado em e pois também é suficiente para . S( ˉ X ,S2)θX¯S(X¯,S2)θ

Editar:

De fato, muito trabalho foi feito na estimativa de na família mais geral em que é conhecido. A seguir estão algumas das referências mais relevantes:N ( θ , a θ 2 ) a > 0θN(θ,aθ2)a>0

Encontrei a primeira dessas referências neste exercício da Statistical Inference de Casella / Berger:

insira a descrição da imagem aqui

insira a descrição da imagem aqui

Minha pergunta não é sobre esse exercício.

A nota final (o extrato do capítulo) diz que o UMVUE de não existe,θ pois a estatística mínima suficiente não está completa. Gostaria de saber o que nos permite concluir que um UMVUE não existe simplesmente porque não é possível encontrar uma estatística completa suficiente? Existe algum resultado relacionado a isso? Vejo a existência de UMVUE, mesmo quando estatísticas suficientes completas não existem no segmento vinculado.

Agora, assumindo que não exista um estimador imparcial de variância uniformemente mínima, qual deve ser nosso próximo critério para escolher o 'melhor' estimador? Procuramos o MSE mínimo, a variação mínima ou o MLE? Ou a escolha dos critérios dependeria do nosso objetivo de estimativa?

Por exemplo, digamos que eu tenha um estimador imparcial e outro estimador tendencioso de . Suponha que o MSE de (que é sua variação) seja maior que o de . Como a minimização do MSE significa minimizar o viés e a variação simultaneamente, acho que deveria ser uma escolha 'melhor' de estimador que embora o primeiro seja enviesado.T 2 θ T 1 T 2 T 2 T 1T1 1T2θT1 1T2T2T1 1

As escolhas prováveis ​​dos estimadores de estão listadas na página 4 da última nota.θ

O extrato a seguir é de Theory of Point Estimation, de Lehmann / Casella (segunda edição, página 87-88):

insira a descrição da imagem aqui

insira a descrição da imagem aqui

É altamente provável que eu tenha entendido tudo errado, mas a última frase está dizendo que, sob certas condições, a existência de estatística completa é necessária para a existência do UMVUE? Se sim, é esse o resultado que eu deveria estar olhando?

Esse último resultado devido ao RR Bahadur, mencionado no final, refere-se a esta nota.

Após uma pesquisa mais aprofundada, encontrei um resultado declarando que, se a estatística mínima suficiente não estiver completa, não haverá uma estatística completa. Então, pelo menos, estou bastante convencido de que uma estatística completa não existe aqui.

Outro resultado que esqueci de considerar é o que diz aproximadamente que uma condição necessária e suficiente para que um estimador imparcial seja o UMVUE é que ele deve estar sem correlação com todo estimador imparcial de zero. Tentei usar esse teorema para mostrar que um UMVUE não existe aqui e também o fato de que um estimador imparcial como não é o UMVUE. Mas isso não funciona tão simples como foi feito, por exemplo , aqui , na ilustração final.X¯

Teimoso
fonte

Respostas:

3

Atualizar:

Considere o estimador que é fornecido em sua postagem. Este é um estimador imparcial de e será claramente correlacionado com o estimador fornecido abaixo (para qualquer valor de ).c0um

0^=X¯cS
c0a

O teorema 6.2.25 da C&B mostra como encontrar estatísticas completas suficientes para a família Exponencial, contanto que contenha um conjunto aberto em . essa distribuição gera e que NÃO forma um conjunto aberto em (já que ) É por isso que a estatística não está completa para e é pelo mesmo motivo que podemos construir um estimador imparcial de que será correlacionado com qualquer estimador imparcial deR k w 1 ( θ ) = θ - 2 w 2 ( θ ) = θ - 1 R 2 w 1 ( θ ) = w 2 ( θ ) 2 ( ˉ X , S 2 ) θ 0 θ

{(w1(θ),wk(θ)}
Rkw1(θ)=θ2w2(θ)=θ1R2w1(θ)=w2(θ)2(X¯,S2)θ0θ que é baseado nas estatísticas suficientes.

Outra atualização:

A partir daqui, o argumento é construtivo. Deve existir o caso de existir outro estimador imparcial modo que para pelo menos um .θ~Var(θ~)<Var(θ^)θΘ

Prova: Suponha que , e (para algum valor de ). Considere um novo estimador Esse estimador é claramente imparcial com a variância Seja .E(θ^)=θE(0^)=0Cov(θ^,0^)<0θ

θ~=θ^+b0 0^
Vumar(θ~)=Vumar(θ^)+b2Vumar(0 0^)+2bCov(θ^,0 0^)
M(θ)=-2Cov(θ^,0 0^)Vumar(0 0^)

Por suposição, deve existir um tal que . Se escolhermos , então em . Portanto, não pode ser o UMVUE. θ0 0M(θ0 0)>0 0b(0 0,M(θ0 0))Vumar(θ~)<Vumar(θ^) θ0 0θ^

Em resumo: o fato de que está correlacionado com (para qualquer escolha de ) implica que podemos construir um novo estimador que seja melhor que por pelo menos um ponto , violando a uniformidade de reivindicar a melhor imparcialidade.θ^0 0^umaθ^ θ0 0θ^


Vamos examinar mais detalhadamente sua ideia de combinações lineares.

θ^=umaX¯+(1 1-uma)cS

Como você aponta, é um estimador razoável, pois é baseado em estatísticas suficientes (embora não completas). Claramente, esse estimador é imparcial; portanto, para calcular o MSE, precisamos apenas calcular a variação.θ^

MSE(θ^)=uma2Vumar(X¯)+(1 1-uma)2c2Vumar(S)=uma2θ2n+(1 1-uma)2c2[E(S2)-E(S)2]=uma2θ2n+(1 1-uma)2c2[θ2-θ2/c2]=θ2[uma2n+(1 1-uma)2(c2-1 1)]

Ao diferenciar, podemos encontrar o "ideal " para um determinado tamanho de amostra .uman

umaopt(n)=c2-1 11 1/n+c2-1 1
que
c2=n-1 12(Γ((n-1 1)/2)Γ(n/2))2

Um gráfico dessa escolha ótima de é dado abaixo. umainsira a descrição da imagem aqui

É um pouco interessante notar que, como , temos (confirmado por Wolframalpha).numaopt1 13

Embora não haja garantia de que este seja o UMVUE, esse estimador é o estimador de variação mínima de todas as combinações lineares imparciais das estatísticas suficientes.

Knrumsey
fonte
Obrigado pela atualização. Não segui C&B como livro, apenas olhei para os exercícios.
StubbornAtom
11
@StubbornAtom Adicionei uma prova demonstrando por que não pode ser UMVUE (emprestado pesadamente da C&B na página 344). Dê uma olhada e deixe-me saber se isso ajuda. θ^
precisa saber é