A questão já foi apresentada antes, mas quero fazer uma pergunta específica que tentará obter uma resposta que a esclareça (e classifique):
Em "Assintóticos do pobre homem", mantém-se uma clara distinção entre
- (a) uma sequência de variáveis aleatórias que converge em probabilidade para uma constante
em contraste com
- (b) uma sequência de variáveis aleatórias que converge em probabilidade para uma variável aleatória (e, portanto, em distribuição para ela).
Mas em "Assintoticos do Sábio", também podemos ter o caso de
- (c) uma sequência de variáveis aleatórias que converge em probabilidade para uma constante, mantendo uma variação diferente de zero no limite.
Minha pergunta é (roubando minha própria resposta exploratória abaixo):
Como podemos entender um estimador que é assintoticamente consistente, mas que também tem uma variação finita diferente de zero? O que essa variação reflete? Como seu comportamento difere de um estimador consistente "usual"?
Tópicos relacionados ao fenômeno descrito em (c) (veja também nos comentários):
Qual é a diferença entre um estimador consistente e um estimador imparcial?
/stats/120553/convergence-of-an-estimator-with-infinite-variance
Por que os estimadores assintoticamente consistentes não apresentam variação zero no infinito?
Quase certeza de convergência e variância limitante chegar a zero
fonte
Respostas:
27-10-2014: Infelizmente (para mim), ninguém ainda contribuiu com resposta aqui - talvez porque pareça uma questão teórica "patológica" estranha e nada mais?
É bom citar um comentário para o usuário Cardinal (que explorarei posteriormente)
A variável aleatória independente aqui é , então vamos ver o que podemos dizer sobre isso. A variável possui suporte com probabilidades correspondentes . É simétrico em torno de zero, então temos { - a n , 0 , a n } { 1 / n 2 , 1 - 2 / n 2 , 1 / n 2 }Zn
{ - um n , 0 , um n } { 1 / n2, 1 - 2 / n2, 1 / n2}
Esses momentos não dependem de então acho que podemos escrever trivialmenten
Em Assintóticos do pobre homem, conhecemos uma condição para que os limites dos momentos sejam iguais aos momentos da distribuição limitadora. Se o ésimo momento da distribuição de casos finitos convergir para uma constante (como é o nosso caso), então, além disso,r
o limite do ésimo momento será o ésimo momento da distribuição limitante. No nosso casorr r
Para isso diverge para qualquer ; portanto, essa condição suficiente não se aplica à variação (se aplica à média). Por outro lado: qual é a distribuição assintótica de ? O CDF de converge para um CDF não degenerado no limite?δ > 0r ≥ 2 δ> 0 Zn Zn
Z n
Não parece: o suporte limitador será (se tivermos permissão para escrever isso) e as probabilidades correspondentes . Parece uma constante para mim. Mas se não temos uma distribuição limitadora, como podemos falar sobre seus momentos? { 0 , 1 , 0 }{ - ∞ , 0 , ∞ } { 0 , 1 , 0 }
Então, voltando ao estimador , já que também converge para uma constante, parece que ˉ X Nθ^n X¯n
Como podemos entender isso? O que isso nos diz sobre o estimador? Qual é a diferença essencial, no limite, entre e ? ~ θ n= ˉ X Nθ^n= X¯n+ Zn θ~n= X¯n
fonte
Não darei uma resposta muito satisfatória à sua pergunta, porque me parece um pouco aberta demais, mas deixe-me tentar esclarecer por que essa pergunta é difícil.
Eu acho que você está lutando com o fato de que as topologias convencionais que usamos em distribuições de probabilidade e variáveis aleatórias são ruins. Eu escrevi um artigo maior sobre isso no meu blog, mas deixe-me tentar resumir: você pode convergir no sentido fraco (e na variação total) enquanto viola suposições de senso comum sobre o que significa convergência.
Por exemplo, você pode convergir em topologia fraca para uma constante enquanto possui variação = 1 (que é exatamente o que sua sequência está fazendo). Existe então uma distribuição limite (na topologia fraca) que é essa variável aleatória monstruosa que na maioria das vezes é igual a 0, mas infinitesimalmente raramente é igual ao infinito.Zn
Pessoalmente, entendo que isso significa que a topologia fraca (e a topologia de variação total também) é uma noção pobre de convergência que deve ser descartada. A maioria das convergências que realmente usamos são mais fortes do que isso. No entanto, eu realmente não sei o que devemos usar em vez da topologia fraca sooo ...
Se você realmente deseja encontrar uma diferença essencial entre e , eis a minha opinião: ambos os estimadores são equivalentes à perda de [0,1] (quando o tamanho do seu erro não importa). No entanto, é muito melhor se o tamanho dos seus erros for importante, porque às vezes falha catastroficamente. ~ θ = ˉ X ~ θ θθ^=X¯+Zn θ~=X¯ θ~ θ^
fonte
Um estimador é consistente em probabilidade, mas não em MSE se houver uma probabilidade arbitrariamente pequena do estimador "explodir". Embora seja uma curiosidade matemática interessante, para qualquer finalidade prática, isso não deve incomodá-lo. Para qualquer finalidade prática, os estimadores têm suportes finitos e, portanto, não podem explodir (o mundo real não é infinitesimalmente pequeno nem grande).
Se você ainda deseja recorrer a uma aproximação contínua do "mundo real", e sua aproximação é tal que converge em probabilidade e não em MSE, faça-a da seguinte maneira: seu estimador pode estar certo com uma probabilidade arbitrariamente grande, mas sempre haverá uma chance arbitrariamente pequena de explodir. Felizmente, quando isso acontecer, você notará que, caso contrário, poderá confiar nela. :-)
fonte