Encontrei um problema no livro didático para estimar a média. O problema do livro é o seguinte:
Suponha que pontos de dados, , ,. . . , x_N , foram gerados por um pdf gaussiano unidimensional de média desconhecida, mas de variação conhecida. Derivar a estimativa ML da média.x 1 x 2 x N
Minha pergunta é: por que precisamos estimar a média usando o MLE quando já sabemos que a média é a média dos dados? A solução também diz que a estimativa do MLE é a média dos dados. Preciso executar todas as etapas cansativas de maximização do MLE para descobrir que a média não passa de média dos dados, ou seja, ?
self-study
normal-distribution
maximum-likelihood
Niranjan Kotha
fonte
fonte
Respostas:
O problema do livro de texto afirma que é de Eles informam que é conhecido, mas precisa ser estimado. x ∼ 1x1, x2, … , XN σμ
É realmente óbvio que uma boa estimativa ?!μ^= x¯
Aqui, .x¯= 1N∑Ni = 1xEu
Não era óbvio para mim e fiquei bastante surpreso ao ver que, na verdade, é uma estimativa do MLE.
Além disso, considere o seguinte: e se fosse conhecido e desconhecido? Nesse caso, o estimador MLE éσ σ 2 = 1μ σ
Observe como esse estimador não é o mesmo que um estimador de variação de amostra! "Já sabemos" que a variação da amostra é dada pela seguinte equação?
fonte
Neste caso, a média de sua amostra acontece também ser o estimador de máxima verossimilhança. Portanto, ao fazer todo o trabalho, o MLE parece um exercício desnecessário, pois você volta à sua estimativa intuitiva da média que você usaria em primeiro lugar. Bem, isso não foi "apenas por acaso"; isso foi escolhido especificamente para mostrar que os estimadores de MLE geralmente levam a estimadores intuitivos.
Mas e se não houvesse um estimador intuitivo? Por exemplo, suponha que você tenha uma amostra de variáveis aleatórias gama iid e esteja interessado em estimar a forma e os parâmetros de taxa. Talvez você possa tentar raciocinar um estimador a partir das propriedades que conhece sobre as distribuições Gamma. Mas qual seria a melhor maneira de fazer isso? Usando alguma combinação da média estimada e variância? Por que não usar a mediana estimada em vez da média? Ou o log-mean? Tudo isso pode ser usado para criar algum tipo de estimador, mas qual será um bom?
Como se vê, a teoria do MLE nos fornece uma ótima maneira de obter uma resposta sucinta a essa pergunta: pegue os valores dos parâmetros que maximizam a probabilidade dos dados observados (o que parece bastante intuitivo) e use isso como sua estimativa. De fato, temos uma teoria que afirma que, sob certas condições, esse será aproximadamente o melhor estimador. Isso é muito melhor do que tentar descobrir um estimador exclusivo para cada tipo de dados e, em seguida, dedicar muito tempo a se preocupar se é realmente a melhor escolha.
Em resumo: embora o MLE não forneça novas informações no caso de estimar a média dos dados normais , em geral é uma ferramenta muito, muito útil.
fonte
É uma questão de vocabulário confuso, como ilustrado por essas citações, direto do google:
Não é a melhor definição, eu concordo! Especialmente quando sugerir significa como sinônimo. Eu acho que a média é mais apropriada para conjuntos de dados ou amostras como em e não deve ser usada para distribuições, como em . μN(μ,σ²)x¯ μ N (μ,σ² )
Conforme sugerido por esta entrada da Wikipedia , mean se aplica a distribuições e amostras ou conjuntos de dados. A média de um conjunto de dados ou amostra também é a média da distribuição empírica associada a essa amostra. A entrada também exemplifica a possibilidade de confusão entre os termos, pois fornece a média e a expectativa como sinônimos.
Eu restringiria o uso da expectativa a um objeto obtido por uma integral, como em mas a média de uma amostra é mais uma vez a expectativa associada à distribuição empírica derivada desta amostra.
fonte