Em geral, parece que o método dos momentos está apenas correspondendo à média da amostra observada ou à variação dos momentos teóricos para obter estimativas dos parâmetros. Geralmente é o mesmo que o MLE para famílias exponenciais, pelo que entendi.
No entanto, é difícil encontrar uma definição clara do método dos momentos e uma discussão clara sobre por que o MLE parece ser geralmente favorecido, mesmo que seja mais difícil encontrar o modo da função de probabilidade.
Esta pergunta O MLE é mais eficiente que o método Moment? Donald Rubin (em Harvard) disse que todo mundo sabe desde os anos 40 que o MLE vence o MoM, mas eu estaria interessado em conhecer a história ou o motivo disso.
Respostas:
No MoM, o estimador é escolhido para que alguma função tenha expectativa condicional igual a zero. Por exemplo, . Freqüentemente, a expectativa depende de . Normalmente, isso é convertido em um problema de minimizar uma forma quadrática nessas expectativas com uma matriz de peso.E[ g( y, x , θ ) ] = 0 x
No MLE, o estimador maximiza a função de probabilidade de log.
Em ampla generalização, o MLE faz suposições mais rígidas (a densidade total) e, portanto, é tipicamente menos robusto, mas mais eficiente se as suposições forem atendidas (atinge o limite inferior de Kramer Rao na variação assintótica).
Em alguns casos, os dois coincidem, sendo o OLS um exemplo notável em que a solução analítica é idêntica e, portanto, o estimador se comporta da mesma maneira.
Em certo sentido, você pode pensar em um MLE (em quase todos os casos) como um estimador de MoM porque o estimador define o valor esperado do gradiente da função de probabilidade de log igual a zero. Nesse sentido, há casos em que a densidade está incorreta, mas o MLE ainda é consistente porque as condições de primeira ordem ainda são satisfeitas. Então MLE é referido como "quase-ML".
fonte
Há um bom artigo sobre isso na Wikipedia.
https://en.m.wikipedia.org/wiki/Method_of_moments_(statistics)
Isso significa que você está estimando os parâmetros populacionais selecionando os parâmetros para que a distribuição populacional tenha momentos equivalentes aos momentos observados na amostra.
A estimativa de probabilidade máxima minimiza a função de probabilidade. Em alguns casos, esse mínimo pode às vezes ser expresso em termos de definir os parâmetros da população iguais aos parâmetros da amostra.
Por exemplo, ao estimar o parâmetro médio de uma distribuição e empregar o MLE, muitas vezes acabamos usando . No entanto, isso nem sempre precisa ser o caso (relacionado: https://stats.stackexchange.com/a/317631/164061, embora, no caso do exemplo, a distribuição de Poisson, a estimativa do MLE e do MoM coincidam e a o mesmo vale para muitos outros). Por exemplo, a solução MLE para a estimativa de em uma distribuição normal de log é:μ = x¯ μ
Enquanto a solução MoM está resolvendo
Portanto, o MoM é uma maneira prática de estimar os parâmetros, levando muitas vezes ao mesmo resultado exato do MLE (uma vez que os momentos da amostra geralmente coincidem com os momentos da população, por exemplo, uma média da amostra é distribuída pela média da população, e até algum fator / viés, funciona muito bem). O MLE tem uma base teórica mais forte e, por exemplo, permite estimar erros usando a matriz Fisher (ou estimativas dela), e é uma abordagem muito mais natural no caso de problemas de regressão (eu não tentei, mas acho que um MoM para resolver parâmetros em uma regressão linear simplesnão está funcionando facilmente e pode dar maus resultados. Na resposta do superpronker, parece que isso é feito por alguma minimização de uma função. Para o MLE, essa minimização expressa uma probabilidade mais alta, mas eu me pergunto se isso representa algo semelhante para o MoM).
fonte
Desculpe, não posso comentários passados ..
Na verdade, no MITx " Fundamentos de Estatística " somos ensinados o contrário, que o MoM depende de equações específicas dos momentos e, se pegarmos a densidade errada, cometeremos um erro total, enquanto o MLE é mais resiliente, pois, em todos os casos, minimizamos a divergência KD ..
fonte