Gostaria de saber se a estimativa de máxima probabilidade já foi usada em estatística. Aprendemos o conceito, mas me pergunto quando é realmente usado. Se assumirmos a distribuição dos dados, encontraremos dois parâmetros, um para a média e outro para a variação, mas você realmente os usa em situações reais?
Alguém pode me dizer um caso simples em que é usado?
estimation
maximum-likelihood
user122358
fonte
fonte
Respostas:
Certamente! Na verdade, bastante - mas nem sempre.
Quando as pessoas têm um modelo distributivo paramétrico, geralmente escolhem usar a estimativa da máxima verossimilhança. Quando o modelo está correto, há várias propriedades úteis dos estimadores de probabilidade máxima.
Por um exemplo - o uso de modelos lineares generalizados é bastante difundido e, nesse caso, os parâmetros que descrevem a média são estimados por máxima verossimilhança.
Pode acontecer que alguns parâmetros sejam estimados pela máxima probabilidade e outros não. Por exemplo, considere um Poisson GLM super-disperso - o parâmetro de dispersão não será estimado pela máxima probabilidade, porque o MLE não é útil nesse caso.
Bem, às vezes você pode ter dois, mas às vezes você tem um parâmetro, às vezes três ou quatro ou mais.
Você está pensando em um modelo específico, talvez? Isso não é sempre o caso. Considere estimar o parâmetro de uma distribuição exponencial ou Poisson ou distribuição binomial. Em cada um desses casos, há um parâmetro e a variação é uma função do parâmetro que descreve a média.
Ou considere uma distribuição gama generalizada , que possui três parâmetros. Ou uma distribuição beta de quatro parâmetros , que possui (talvez sem surpresa) quatro parâmetros. Observe também que (dependendo da parametrização específica) a média ou a variância ou ambas podem não ser representadas por um único parâmetro, mas pelas funções de vários deles.
Por exemplo, a distribuição gama, para a qual existem três parametrizações que vêem uso bastante comum - as duas mais comuns têm a média e a variância sendo funções de dois parâmetros.
Normalmente, em um modelo de regressão ou GLM ou em um modelo de sobrevivência (entre muitos outros tipos de modelo), o modelo pode depender de vários preditores; nesse caso, a distribuição associada a cada observação no modelo pode ter um de seu próprio parâmetro (ou até vários parâmetros) relacionados a muitas variáveis preditoras ("variáveis independentes").
fonte
Embora os estimadores de maximizar a probabilidade possam parecer suspeitos, considerando as suposições sobre a distribuição de dados, os estimadores de máxima probabilidade quase máxima são frequentemente usados. A idéia é começar assumindo uma distribuição e resolver o MLE, depois remover a suposição distributiva explícita e, em vez disso, ver como o seu estimador se sai em condições mais gerais. Portanto, o Quasi MLE se torna uma maneira inteligente de obter um estimador, e a maior parte do trabalho está derivando as propriedades do estimador. Como as premissas distributivas são descartadas, o MLE quase normalmente não possui as boas propriedades de eficiência.
fonte
A estimativa de probabilidade máxima é freqüentemente usada no aprendizado de máquina para treinar:
Observe que, em alguns casos, prefere-se adicionar alguma regularização, que às vezes é equivalente à estimativa máxima a posteriori , por exemplo, por que a penalidade de Lasso é equivalente à dupla exponencial (Laplace) antes? .
fonte
Um caso muito típico está em regressão logística. A regressão logística é uma técnica usada frequentemente no aprendizado de máquina para classificar pontos de dados. Por exemplo, a regressão logística pode ser usada para classificar se um email é spam ou não é spam ou classificar se uma pessoa tem ou não uma doença.
fonte
Estamos usando o MLE o tempo todo, mas podemos não sentir isso. Vou dar dois exemplos simples para mostrar.
Exemplo 1
Por que usar a contagem? na verdade, isso está implicitamente usando o MLE! Onde está o problema
Para resolver a equação, precisaremos de algum cálculo, mas a conclusão está contando.
Exemplo 2
Como estimamos parâmetros de distribuição gaussiana a partir de dados? Usamos a média empírica como média estimada e a variação empírica como variação estimada, que também é proveniente do MLE !.
fonte
Alguns usos máximos de probabilidade na comunicação sem fio:
fonte