HW Pergunta :
são variáveis gaussianas independentes com média e variância . Defina que é desconhecido. Estamos interessados na estimação de partir de .
uma. Dado determine seu viés e variação.
b. Dado determine seu viés e variância.
Ignorando o requisito de ser um número inteiro
c. Existe um estimador eficiente (observe e )?
d. Encontre a estimativa de probabilidade máxima de partir de .
e Encontre CRLB de partir de .
f. O erro quadrático médio dos estimadores atinge CRLB quando ?
Se alguém pudesse me direcionar para a solução do seguinte problema, seria ótimo.
Obrigado,
Nadav
maximum-likelihood
Nadav Talmon
fonte
fonte
Respostas:
Você começou bem escrevendo uma expressão para a probabilidade. É mais simples reconhecer que sendo a soma das variáveis independentes normais , tem uma distribuição Normal com média e variância onde sua probabilidade éY, N (μ,σ2) Nμ Nσ2,
Vamos trabalhar com seu logaritmo negativo cujos mínimos correspondem aos máximos da probabilidade:Λ = - logL ,
Precisamos encontrar todos os números inteiros que minimizem essa expressão. Finja por um momento que pode ser qualquer número real positivo. Como tal, é uma função continuamente diferenciável de com derivadaN 2 Λ N
Equacione isso a zero para procurar pontos críticos, limpe os denominadores e faça um pouco de álgebra para simplificar o resultado, fornecendo
com uma solução positiva única (quando )μ ≠ 0
É simples verificar se, à medida que aproxima de ou cresce, cresce, então sabemos que não há um mínimo global próximo de nem próximo de Isso deixa apenas o ponto crítico que encontramos, que, portanto, deve ser o mínimo global. Além disso, deve diminuir à medida que é abordado de baixo ou de cima. Portanto,N 0 0 2 Λ (N) N≈ 0 N≈ ∞ . 2 Λ N^
Isso fornece um procedimento eficaz para encontrar o estimador de Máxima Verossimilhança: é o piso ou o teto de (ou, ocasionalmente, os dois !), Então calcule e simplesmente escolha qual desses números inteiros gera menor.N^ N^ 2 Λ
Vamos fazer uma pausa para verificar se esse resultado faz sentido. Em duas situações, há uma solução intuitiva:
Quando é muito maior que , estará próximo de onde uma estimativa decente de seria simplesmente Nesses casos, podemos aproximar o MLE negligenciando dando (conforme o esperado)μ σ Y μ , N | Y/ μ | . σ2, N^=1 12μ2( -σ2+σ4+ 4μ2y2---------√) ≈1 12μ24μ2y2-----√=∣∣∣yμ∣∣∣.
Quando é muito maior que pode se espalhar por todo o lugar, mas, em média, deve estar próximo de onde uma estimativa intuitiva de seria simplesmente De fato, negligenciar na equação fornece a solução esperadaσ μ , Y Y2 σ2, N y2/σ2. μ ( 1 ) N^≈y2σ2.
Nos dois casos, o MLE está de acordo com a intuição, indicando que provavelmente o resolvemos corretamente. As situações interessantes , então, ocorrem quando e são de tamanhos comparáveis. A intuição pode ser de pouca ajuda aqui.μ σ
Para explorar isso ainda mais, simulei três situações em que é ou Não importa o que seja (desde que não seja zero), Em cada situação um aleatório para os casos fazendo isso independentemente cinco mil vezes.σ/ μ 1 / 3 , 1 , 3) μ μ = 1. Y N= 2 , 4 , 8 , 16 ,
Estes histogramas resumir os mleS de . As linhas verticais marcam os verdadeiros valores de .N N
Em média, o MLE parece estar quase certo. Quando é relativamente pequeno, o MLE tende a ser preciso: é o que indicam os histogramas estreitos na linha superior. Quando o MLE é bastante incerto. Quando o MLE geralmente pode ser e algumas vezes pode ser várias vezes (especialmente quando é pequeno). Essas observações estão de acordo com o que foi previsto na análise intuitiva anterior.σ σ≈ | u | , σ» | u | , N^= 1 N N
A chave para a simulação é implementar o MLE. Requer a resolução e a avaliação de para determinados valores de e A única nova idéia refletida aqui é verificar os números inteiros em ambos os lados de As duas últimas linhas da função realizam esse cálculo, com a ajuda de avaliar a probabilidade do log.( 1 ) Λ Y, μ , σ. N^.
f
lambda
fonte
O método que whuber usou em sua excelente resposta é um "truque" comum de otimização que envolve estender a função de probabilidade para permitir valores reais de e, em seguida, usar a concavidade da probabilidade de log para mostrar que o valor discreto de maximização é um dos fatores. valores discretos em ambos os lados de um ótimo contínuo. Esse é um método comumente usado em problemas discretos de MLE que envolvem uma função de verossimilhança côncava. Seu valor reside no fato de que geralmente é possível obter uma expressão simples de forma fechada para os ótimos contínuos.N
Para completar, nesta resposta, mostrarei um método alternativo, que usa cálculo discreto usando o operador de diferença para a frente . A função de probabilidade de log para esse problema é a função discreta:
A primeira diferença para a frente da probabilidade de log é:
Com um pouco de álgebra, a segunda diferença de avanço pode ser mostrada como:
Isso mostra que a função log-verossimilhança é côncava, portanto, seu menor ponto de maximizaçãoN^ será:
(O próximo valor também será um ponto de maximização se e somente seΔℓy(N^)=0 .) O MLE (o menor ou o conjunto inteiro) pode ser programado como uma função por meio de um
while
loop simples , e isso deve ser capaz de fornecer a solução rapidamente. Vou deixar a parte de programação como um exercício.fonte
Comentário: Aqui está uma breve simulação em R paraμ=50,σ=3,
que deve ser preciso em 2 ou três lugares, aproximando a média e o DP de Y. Você deve conseguir encontrar E(Y) e Var(Y)
por métodos analíticos elementares, conforme indicado no meu comentário anterior. Se tivéssemosN=100 então E(N^) parece imparcial para N.
fonte