Você pode fornecer um exemplo de um estimador de MLE da média que é tendenciosa?
Não estou procurando um exemplo que quebre os estimadores de MLE em geral, violando as condições de regularidade.
Todos os exemplos que vejo na internet referem-se à variação e não consigo encontrar nada relacionado à média.
EDITAR
O @MichaelHardy forneceu um exemplo em que obtemos uma estimativa tendenciosa da média da distribuição uniforme usando o MLE sob um determinado modelo proposto.
Contudo
https://en.wikipedia.org/wiki/Uniform_distribution_(continuous)#Estimation_of_midpoint
sugere que o MLE é um estimador imparcial mínimo uniforme da média, claramente em outro modelo proposto.
Neste ponto, ainda não está muito claro para mim o que se entende por estimativa do MLE, se é um modelo muito dependente de hipóteses, em vez de dizer um estimador médio de amostra que é neutro em relação ao modelo. No final, estou interessado em estimar algo sobre a população e realmente não me importo com a estimativa de um parâmetro de um modelo hipotético.
EDIT 2
Como o @ChristophHanck mostrou o modelo com informações adicionais introduziu o viés, mas não conseguiu reduzir o MSE.
Também temos resultados adicionais:
http://www.maths.manchester.ac.uk/~peterf/CSI_ch4_part1.pdf (p61) http://www.cs.tut.fi/~hehu/SSP/lecture6.pdf (slide 2) http: / /www.stats.ox.ac.uk/~marchini/bs2a/lecture4_4up.pdf (slide 5)
"Se um estimador imparcial mais eficiente ˆθ de θ existe (ou seja, isθ é imparcial e sua variação é igual ao CRLB), então o método de estimativa de probabilidade máxima o produzirá."
"Além disso, se existe um estimador eficiente, é o estimador de ML".
Como o MLE com parâmetros de modelo livre é imparcial e eficiente, por definição é "o" Estimador de Máxima Verossimilhança?
EDIT 3
O @AlecosPapadopoulos tem um exemplo com distribuição Half Normal no fórum de matemática.
/math/799954/can-the-maximum-likelihood-estimator-be-unbiated-and-fail-to-achieve-cramer-rao
Não está ancorando nenhum de seus parâmetros, como no caso uniforme. Eu diria que isso resolve, embora ele não tenha demonstrado o viés do estimador médio.
fonte
Respostas:
Christoph Hanck não publicou os detalhes de seu exemplo proposto. Presumo que ele significa a distribuição uniforme no intervalo base em uma amostra iid X 1 , … , X n de tamanho maior que n = 1.[0,θ], X1,…,Xn n=1.
A média é .θ/2
O MLE da média émax{X1,…,Xn}/2.
Isso é tendencioso, já que então E ( max / 2 ) < θ / 2.Pr(max<θ)=1, E(max/2)<θ/2.
PS: Talvez devêssemos notar que o melhor estimador imparcial da média não é a média da amostra, mas sim n + 1θ/2 A média da amostra é um péssimo estimador de θ / 2 porque, para algumas amostras, a média da amostra é menor que 1
Suspeito que a distribuição de Pareto seja outro caso. Aqui está a medida de probabilidade: O valor esperado éα
Eu não calculei o valor esperado do MLE para a média, então não sei qual é o seu viés.
fonte
Aqui está um exemplo que eu acho que alguns podem achar surpreendente:
Na regressão logística, para qualquer tamanho finito de amostra com resultados não determinísticos (ou seja, ), qualquer coeficiente de regressão estimado não é apenas tendencioso, a média do coeficiente de regressão é realmente indefinida.0<pi<1
Isso ocorre porque, para qualquer tamanho finito de amostra, existe uma probabilidade positiva (embora muito pequena se o número de amostras for grande comparado ao número de parâmetros de regressão) de obter uma separação perfeita dos resultados. Quando isso acontece, os coeficientes de regressão estimados serão ou ∞ . Ter probabilidade positiva de ser−∞ ∞ −∞ ou implica o valor esperado é indefinido.∞
Para mais informações sobre esse assunto específico, consulte o efeito Hauck-Donner .
fonte
Embora @MichaelHardy tenha argumentado isso, aqui está um argumento mais detalhado sobre por que o MLE do máximo (e, portanto, o da média , por invariância) não é imparcial, embora esteja em um modelo diferente (consulte a edição abaixo).θ/2
Estimamos o limite superior da distribuição uniforme . Aqui, y ( n ) é o MLE, para uma amostra aleatória y . Mostramos que y ( n ) não é imparcial. Seu cdf é F y ( n ) ( x )U[0,θ] y(n) y y(n)
Assim, sua densidade é
fy(n)(x)={n
EDIT: É realmente o caso em que (veja a discussão nos comentários) o MLE é imparcial quanto à média no caso em que o limite inferior e o limite superior b são desconhecidos. Então, o mínimo Y ( 1 ) é o MLE para a , com (detalhes omitidos) valor esperado E ( Y ( 1 ) ) = n a + ba b Y(1) a
enquanto
E(Y(n))=nb+a
EDIT 2: Para elaborar o ponto de Henry, aqui está uma pequena simulação para o MSE dos estimadores da média, mostrando que enquanto o MLE, se não sabemos o limite inferior é zero, não é imparcial, os MSEs das duas variantes são idênticos. , sugerindo que o estimador que incorpora o conhecimento do limite inferior reduz a variabilidade.
fonte
Completando aqui a omissão na minha resposta em math.se referenciada pelo OP,
A probabilidade logarítmica da amostra é
so it is a method of moments estimator. It is unbiased since,
But, the resulting estimator for the mean is downward biased due to Jensen's inequality
fonte
The famous Neyman Scott problem has an inconsistent MLE in that it never even converges to the right thing. Motivates the use of conditional likelihood.
Take(Xi,Yi)∼N(μi,σ2) . The MLE of μi is (Xi+Yi)/2 and of σ2 is σ^2=∑ni=11ns2i with s2i=(Xi−μ^i)2/2+(Yi−μ^i)2/2=(Xi−Yi)2/4 which has expected value σ2/4 and so biased by a factor of 2.
fonte
There is an infinite range of examples for this phenomenon since
fonte