Uma sequência de estimadores para um parâmetro é assintoticamente normal se . (fonte) Em seguida, chamamosa variação assintótica de. Se essa variância for igual aolimite Cramer-Rao, dizemos que o estimador / sequência é assintoticamente eficiente.
Pergunta: Por que usamos em particular?
Eu sei que para a amostra média, essa escolha a normaliza. Mas como as definições acima se aplicam a mais do que a média da amostra, por que ainda optamos por normalizar por√ .
estimation
asymptotics
efficiency
sem noção
fonte
fonte
Respostas:
Não podemos escolher aqui. O fator "normalizador", em essência, é um fator "estabilizador de variância para algo finito", de modo que a expressão não chegue a zero ou ao infinito conforme o tamanho da amostra vá ao infinito, mas para manter uma distribuição no limite.
Portanto, tem que ser o que for em cada caso. É claro que é interessante que em muitos casos apareça que deve ser . (mas veja também o comentário do @ whuber abaixo).n−−√
Um exemplo padrão em que o fator de normalização deve ser , em vez de √n é quando temos um modelon−−√
com ruído branco, e estimamos o desconhecido β por Mínimos Quadrados Ordinários.ut β
Se isso acontecer, o valor verdadeiro do coeficiente é , o estimador OLS é consistente e converge no √ usual|β|<1 taxa n . n−−√
Mas se o valor verdadeiro forβ=1 (ou seja, na verdade, temos uma caminhada aleatória pura), o estimador OLS é consistente, mas convergirá "mais rápido", na taxa (às vezes é chamado de estimador "superconsistente" - desde , Eu acho, muitos estimadores convergem na taxa √n )
Neste caso, para obter a sua distribuição assintótica (não-normal), quetema escala( β -β)porn(se adaptar apenas por √n−−√
(β^−β) n a expressão irá para zero). Hamilton ch 17tem os detalhes.n−−√
fonte
You were on the right track with a sample mean variance intuition. Re-arrange the condition:
The last equation is informal. However, it's in some way more intuitive: you say that the deviation ofUn from θ is becoming more like a normal distribution when n increases. The variance is shrinking, but the shape becomes closer to normal distribution.
In math they don't define the convergence to the changing right hand side (n is varying). That's why the same idea is expressed as the original condition, that you gave. In which the right hand side is fixed, and the left hand side converges to it.
fonte