Contra-exemplo para a condição suficiente exigida para consistência

8

Sabemos que se um estimador é um estimador imparcial de teta e se sua variância tende a 0 como n tende ao infinito, é um estimador consistente para teta. Mas essa é uma condição suficiente e não necessária. Estou procurando um exemplo de um estimador que seja consistente, mas cuja variação não tenda a 0, pois n tende ao infinito. Alguma sugestão?

user22546
fonte
3
Veja, por exemplo, este comentário e a discussão relacionada.
cardeal

Respostas:

6

Fico feliz em ver que minha resposta (incorreta) gerou mais duas e transformou uma pergunta morta em uma animada discussão de perguntas e respostas. Então é hora de tentar oferecer algo que valha a pena, eu acho) .

Considere um processo estocástico de covariância-estacionário correlacionado em série , com média e autocovariâncias . Suponha que (isso limita a "força" da autocorrelação, pois duas realizações do processo estão cada vez mais distantes no tempo). Então nós temos issoμ { γ j } ,{yt},t=1,...,nμlim j γ j = 0{γj},γjCov(yt,yt-j)limjγj=0 0

y¯n=1nt=1nytm.sμ,Comon

isto é, a média da amostra converge no quadrado médio para a verdadeira média do processo e, portanto, também converge em probabilidade: portanto, é um estimador consistente de .μ

A variação de pode ser encontrada comoy¯n

Var(y¯n)=1nγ0 0+2nj=1n-1(1-jn)γj

que é facilmente mostrado para ir a zero quando vai ao infinito.n

Agora, usando o comentário do Cardinal, vamos randomizar ainda mais nosso estimador da média, considerando o estimador

μ~n=y¯n+zn

onde é um processo estocástico de variáveis ​​aleatórias independentes que também são independentes dos ', assumindo o valor (parâmetro a ser especificado por nós) com probabilidade , o valor com probabilidade , e zero nos outros casos. Então tem valor e variação esperadosy i uma t um > 0 1 / T 2 - um t 1 / t 2 { z t }{zt}yEuumatuma>0 01/t2-umat1/t2{zt}

E(zt)=umat1t2-umat1t2+0 0(1-2t2)=0 0,Var(zt)=2uma2

O valor esperado e a variação do estimador são, portanto,

E(μ~)=μ,Var(μ~)=Var(y¯n)+2uma2

Considere a distribuição de probabilidade de, :toma o valor com probabilidade e o valor com probabilidade . assimP ( | z n |ϵ ) ,|zn|| z n | 0 ( 1 - 2 / n 2 ) a n 2 / n 2P(|zn|ϵ),ϵ>0 0|zn|0 0(1-2/n2)uman2/n2

P(|zn|<ϵ)1-2/n2=limnP(|zn|<ϵ)1=1

o que significa que converge em probabilidade para (enquanto sua variação permanece finita). Portanto 0zn0 0

plimμ~n=plimy¯n+plimzn=μ

portanto, esse estimador aleatório do valor médio do processo estocástico permanece consistente. Mas sua variância não chega a zero quando vai ao infinito, nem ao infinito. nyn

Encerramento, por que toda a elaboração aparentemente inútil com um processo estocástico autocorrelacionado? Como o cardeal qualificou seu exemplo chamando-o de "absurdo", como "apenas para mostrar isso matematicamente, podemos ter um estimador consistente com variação diferente de zero e finita".
Eu queria dar uma dica de que não é necessariamente uma curiosidade, pelo menos em espírito: há momentos na vida real em que novos processos começam, processos criados pelo homem, que tinham a ver com a forma como organizamos nossas vidas e atividades. Embora normalmente os tenhamos projetado e possamos dizer muito sobre eles, eles podem ser tão complexos que são razoavelmente tratados como estocásticos (a ilusão de controle completo sobre tais processos ou de conhecimento a priori completo de sua evolução, processos). que podem representar novas maneiras de comercializar ou produzir, ou organizar a estrutura de direitos e obrigações entre humanos, é apenas isso, uma ilusão). Sendo também novo, não temos realizações acumuladas suficientes delas para fazer inferência estatística confiável sobre como elas evoluirão. Então, correções ad hoc e talvez "subótimas" são, no entanto, um fenômeno real, quando, por exemplo, temos um processo em que acreditamos firmemente que seu presente depende do passado (daí o processo estocástico correlacionado automaticamente), mas na verdade não sabemos saber como ainda (daí a randomização ad hoc, enquanto esperamos que os dados se acumulem para estimar as covariâncias). E talvez um estatístico encontre uma maneira melhor de lidar com esse tipo de grave incerteza - mas muitas entidades precisam funcionar em um ambiente incerto sem o benefício de tais serviços científicos.

O que se segue é a resposta inicial (incorreta) (veja especialmente o comentário do cardeal)

Existem estimadores que convergem em probabilidade para uma variável aleatória: o caso da "regressão espúria" vem à mente, onde, se tentarmos regredir dois passeios aleatórios independentes (ou seja, processos estocásticos não estacionários) um sobre o outro, usando a estimativa de mínimos quadrados ordinários , o estimador OLS convergirá para uma variável aleatória.

Mas não existe um estimador consistente com variação diferente de zero, porque a consistência é definida como a convergência na probabilidade de um estimador para uma constante que, por concepção, tem variação zero.

Alecos Papadopoulos
fonte
1
@ cardinal Obrigado pela intervenção, e ficarei feliz em corrigi-la. Posso ter uma dica de como eu poderia começar a procurar um estimador consistente cuja variação converge para um número finito? (O caso de variação infinita / indefinida é um caso conhecido e deveria ter sido mencionado - mas o caso finito diferente de zero é realmente interessante). Ou descrevi incorretamente a propriedade da consistência?
Alecos Papadopoulos
1
O exemplo que eu dei no comentário vinculado na minha nota ao OP tem uma variação limitante finita. A consistência lida com a convergência em probabilidade, que você anotou corretamente. Mas, para que a variação chegue a zero, temos que controlar as caudas (também). Isso está relacionado à relação entre convergência e convergência em probabilidade. eup
cardeal
Eu coloquei um exemplo de convergência em probabilidade, sempre com variação sempre positiva e finita em minha resposta aqui.
Ekvall
@ cardinal Se você não acredita mais que a resposta atual esteja incorreta, talvez você possa excluir seu comentário ou postar um novo comentário para confirmar que a resposta atual não está mais incorreta? Do ponto de vista de um leitor, ter uma resposta votada dizendo que uma resposta está incorreta é confuso (e obriga a começar a verificar as cronologias de edição).
Silverfish
O comentário do @Silverfish Cardinal na verdade se refere à minha resposta inicial (a parte sob a barra cinza perto do final do post). Exatamente porque essa resposta inicial gerou comentários que ainda estão presentes, eu a deixei excluída, abaixo da nova resposta. Eu adicionei algo na barra cinza para ajudar um pouco com a confusão.
Alecos Papadopoulos
2

Pegue qualquer amostra da distribuição com expectativa finita e variação infinita ( Pareto com por exemplo) .Em seguida, a média da amostra convergirá para a expectativa devido à lei ou a grandes números (o que requer apenas a existência da média) e a variação será infinita.α(1,2]

mpiktas
fonte
A variação é infinita quando, digamos, ? Ou é indefinido nesse caso? α=1.5
Alecos Papadopoulos
Bem, é infinito, se olharmos para a área abaixo da curva para a interpretação da integral.
mpiktas 31/01
1

Deixe-me dar um exemplo de uma sequência de variável aleatória convergindo para zero em probabilidade, mas com variação infinita. Em essência, um estimador é apenas uma variável aleatória; portanto, com um pouco de abstração, você pode ver que a convergência em probabilidade para uma constante não implica em variação próxima de zero.

Considere a variável aleatória em onde a medida de probabilidade considerada é a medida de Lebesgue. Claramente, mas para todos para que sua variação não chegue a zero.ξn(x): =χ[0 0,1/n](x)x-1/2[0 0,1]P(ξn(x)>0 0)=1/n0 0n

ξn2dP=0 01/nx-1dx=registro(x)0 01/n=,
n

Agora, apenas crie um estimador onde, conforme sua amostra cresce, você estima o valor verdadeiro com um sorteio de . Observe que esse estimador não é imparcial para 0, mas, para torná-lo imparcial, você pode simplesmente definir com igual probabilidade 1/2 e usá-lo como seu estimador. O mesmo argumento para convergência e variação claramente se aplica.ξ n η n : = ± ξ nμ=0 0ξnηn: =±ξn

Editar: se você quiser um exemplo em que a variação seja finita, e considere wp 1/2.ηn:=±Çn

ξn(x): =χ[0 0,1/n](x)n,
ηn: =±ξn
ekvall
fonte