Então, eu tenho um processo aleatório gerando variáveis aleatórias normalmente distribuídas em log . Aqui está a função de densidade de probabilidade correspondente:
Eu queria estimar a distribuição de alguns momentos dessa distribuição original, digamos o primeiro momento: a média aritmética. Para isso, desenhei 100 variáveis aleatórias 10.000 vezes, para poder calcular 10000 estimativas da média aritmética.
Existem duas maneiras diferentes de estimar essa média (pelo menos, foi o que eu entendi: eu posso estar errado):
- calculando claramente a média aritmética da maneira usual:
- ou primeiro estimando e μ a partir da distribuição normal subjacente: μ = N ∑ i = 1 log ( X i ) e, em seguida, a média como ˉ X =exp(μ+1
O problema é que as distribuições correspondentes a cada uma dessas estimativas são sistematicamente diferentes:
A média "simples" (representada como a linha tracejada vermelha) geralmente fornece valores mais baixos que o derivado da forma exponencial (linha simples verde). Embora ambos os meios sejam calculados exatamente no mesmo conjunto de dados. Observe que essa diferença é sistemática.
Por que essas distribuições não são iguais?
Respostas:
Os dois estimadores que você está comparando são o método do estimador de momentos (1.) e o MLE (2.), veja aqui . Ambos são consistentes (portanto, para grande , eles são, em certo sentido, provavelmente próximos do valor verdadeiro exp [ μ +N exp[μ+1/2σ2]
O MLE não é, no entanto, imparcial.
Tente aumentarN=100
Veja esta ilustração de Monte Carlo paraN=1000
Criado com:
N <- c(50,100,200,500,1000,2000,3000,5000)
fonte