Se alguém dissesse
"Esse método usa o MLE como estimativa de pontos para o parâmetro que maximiza , portanto, é freqüentista; além disso, não é bayesiano".
você concordaria?
- Atualização em segundo plano : Recentemente, li um artigo que afirma ser freqüentista. Não concordo com a afirmação deles, na melhor das hipóteses acho ambíguo. O artigo não menciona explicitamente o MLE (ou o MAP , nesse caso). Eles apenas fazem uma estimativa pontual e simplesmente procedem como se essa estimativa pontual fosse verdadeira. Eles nãofaça qualquer análise da distribuição amostral desse estimador ou algo assim; o modelo é bastante complexo e, portanto, essa análise provavelmente não é possível. Eles também não usam a palavra "posterior" em nenhum momento. Eles apenas tomam essa estimativa pontual pelo valor nominal e prosseguem para o principal tópico de interesse - inferindo dados ausentes. Não acho que exista algo em sua abordagem que sugira qual é a filosofia deles. Eles podem ter pretendido ser freqüentadores (porque se sentem obrigados a usar sua filosofia na manga), mas sua abordagem atual é bastante simples / conveniente / preguiçosa / ambígua. Estou inclinado agora a dizer que a pesquisa realmente não tem nenhuma filosofia por trás disso; em vez disso, acho que a atitude deles era mais pragmática ou conveniente:
"Eu tenho os dados observados, , e eu desejo para estimar alguns dados em falta, z . Há um parâmetro θ que controla a relação entre z e x . Eu realmente não se preocupam com θ , exceto como um meio para um fim. Se Eu tenho uma estimativa para θ ele irá torná-lo mais fácil de prever z de x vou escolher uma estimativa pontual da. θ porque é conveniente, em particular, eu vou escolher o θ que maximiza P ( x | θ ) ."
Nos métodos bayesianos, os papéis dos dados e o parâmetro são meio invertidos. Em particular, agora condicionamos os dados observados e procedemos a inferências sobre o valor do parâmetro. Isso requer um prévio.
Até aqui tudo bem, mas onde o MLE (estimativa máxima de verossimilhança) se encaixa nisso tudo? Tenho a impressão de que muitas pessoas sentem que é freqüentista (ou mais precisamente, que não é bayesiano). Mas sinto que é bayesiano porque envolve pegar os dados observados e depois encontrar o parâmetro que maximiza . O MLE está implicitamente usando um prévio e condicionamento uniforme nos dados e maximizando P ( p a r a m e t e r . É justo dizer que o MLE parece freqüentista e bayesiano? Ou toda ferramenta simples precisa se encaixar exatamente em uma dessas duas categorias?
O MLE é consistente, mas sinto que a consistência pode ser apresentada como uma ideia bayesiana. Dadas amostras arbitrariamente grandes, a estimativa converge para a resposta correta. A declaração "a estimativa será igual ao valor verdadeiro" é verdadeira para todos os valores do parâmetro. O interessante é que essa afirmação também se aplica se você condicionar os dados observados, tornando-o bayesiano. Este aparte interessante vale para o MLE, mas não para um estimador imparcial.
É por isso que sinto que o MLE é o "mais bayesiano" dos métodos que podem ser descritos como freqüentistas.
De qualquer forma, a maioria das propriedades freqüentistas (como imparcialidade) se aplicam em todos os casos, incluindo tamanhos finitos de amostra. O fato de a consistência se manter apenas no cenário impossível (amostra infinita em um experimento) sugere que a consistência não é uma propriedade tão útil.
Dada uma amostra realista (isto é, finita), existe uma propriedade Frequentist que se aplica ao MLE? Caso contrário, o MLE não é realmente freqüentista.
fonte
Respostas:
Não. Ferramentas simples (e não tão simples) podem ser estudadas sob muitos pontos de vista diferentes. A função de verossimilhança, por si só, é uma pedra angular nas estatísticas bayesiana e freqüentista, e pode ser estudada de ambos os pontos de vista! Se você quiser, pode estudar o MLE como uma solução aproximada de Bayes, ou pode estudar suas propriedades com a teoria assintótica, de maneira freqüente.
fonte
Ao fazer a estimativa de máxima verossimilhança, você considera o valor da estimativa e as propriedades de amostragem do estimador para estabelecer a incerteza da sua estimativa expressa como um intervalo de confiança. Eu acho que isso é importante em relação à sua pergunta, porque um intervalo de confiança geralmente depende de pontos de amostra que não foram observados, o que, para alguns, parece ser uma propriedade essencialmente anti-índia.
PS Isso está relacionado ao fato mais geral de que a estimativa de máxima verossimilhança (ponto + intervalo) falha em satisfazer o princípio da verossimilhança , enquanto uma análise bayesiana completa (" estilo selvagem ") o faz.
fonte
A função de probabilidade é uma função que envolve os dados e o (s) parâmetro (s) desconhecido (s). Pode ser vista como a densidade de probabilidade para os dados observados, dados os valores do (s) parâmetro (s). Os parâmetros são fixos. Então, por si só, a probabilidade é uma noção freqüentista. Maximizar a probabilidade é apenas encontrar os valores específicos do (s) parâmetro (s) que fazem com que a probabilidade assuma seu valor máximo. Portanto, a estimativa de máxima verossimilhança é um método freqüentista baseado apenas nos dados e na forma do modelo que se supõe gerá-los. A estimativa bayesiana somente entra quando uma distribuição anterior é colocada no (s) parâmetro (s) e a fórmula de Bayes é usada para obter uma distribuição posterior para o (s) parâmetro (s), combinando a anterior com a probabilidade.
fonte
Supondo que por "Bayesiano" você se refere a Bayes subjetivo (também conhecido como Bayes epistêmico, De-Finetti Bayes) e não ao atual significado empírico de Bayes - isso está longe de ser trivial. Por um lado, você deduz com base apenas em seus dados. Não há crenças subjetivas à mão. Isso parece bastante freqüente ... Mas a crítica, expressa até no próprio Fisher (um bayesiano estritamente não (subjetivo)), é que na escolha da distribuição amostral da subjetividade dos dados se arrastou. Um parâmetro é definido apenas, dada a nossa crenças do processo de geração de dados.
Concluindo - acredito que o MLE é tipicamente considerado um conceito frequentista, embora seja apenas uma questão de como você define "frequentista" e "bayesiano".
fonte
(respondendo à própria pergunta)
Um estimador é uma função que pega alguns dados e produz um número (ou intervalo de números). Um estimador, por si só, não é realmente 'bayesiano' ou 'frequentista' - você pode pensar nele como uma caixa preta onde os números entram e saem. Você pode apresentar o mesmo estimador a um frequentista e a um bayesiano, e eles terão coisas diferentes a dizer sobre o estimador.
(Não estou satisfeito com minha distinção simplista entre frequentista e bayesiana - há outras questões a serem consideradas. Mas, por simplicidade, vamos fingir que são apenas dois campos filosóficos bem definidos.)
Você não pode dizer se um pesquisador é freqüentador de Bayesiano exatamente por qual estimador ele escolhe. O importante é ouvir as análises que eles fazem no estimador e quais as razões que eles dão para escolher esse estimador.
Imagine que você crie um software que encontre esse valor deθ o que maximiza P ( x | θ) . Você apresenta este software a um frequentista e pede que ele faça uma apresentação sobre ele. Provavelmente procederão analisando a distribuição da amostra e testando se o estimador é tendencioso . E talvez eles verifiquem se é consistente . Eles aprovarão ou desaprovarão o estimador com base em propriedades como essa. Esses são os tipos de propriedades nas quais um frequentista está interessado.
Quando o mesmo software é apresentado a um bayesiano, o bayesiano pode muito bem estar satisfeito com grande parte da análise do frequentista. Sim, todas as outras coisas são iguais, o viés não é bom e a consistência é boa. Mas o bayesiano estará mais interessado em outras coisas. O bayesiano desejará ver se o estimador assume o formato de alguma função da distribuição posterior; e se sim, qual prior foi usado? Se o estimador é baseado em um posterior, o bayesiano se pergunta se o anterior é bom. Se eles estão satisfeitos com o anterior, e se o estimador está relatando o modo do posterior (em oposição a, digamos, a média do posterior), eles estão felizes em aplicar esta interpretação à estimativa: "Esta estimativa é o ponto estimar qual tem a melhor chance de estar correto ".
Costumo ouvir dizer que os freqüentadores e bayesianos "interpretam" as coisas de maneira diferente, mesmo quando os números envolvidos são os mesmos. Isso pode ser um pouco confuso, e não acho que seja verdade. Suas interpretações não conflitam; eles simplesmente fazem declarações sobre diferentes aspectos do sistema. Vamos deixar de lado as estimativas de pontos no momento e considerar os intervalos. Em particular, existem intervalos de confiança freqüentes e intervalos credíveis bayesianos . Eles geralmente dão respostas diferentes. Mas em certos modelos, com certos anteriores, os dois tipos de intervalo darão a mesma resposta numérica.
Quando os intervalos são os mesmos, como podemos interpretá-los de maneira diferente? Um frequentista dirá sobre um estimador de intervalo:
considerando que um bayesiano dirá sobre um estimador de intervalo:
Essas duas declarações são idênticas, além das palavras 'Antes' e 'Depois'. O bayesiano entenderá e concordará com a afirmação anterior e também reconhecerá que sua verdade é independente de qualquer anterior, tornando-a "mais forte". Mas falando como bayesiano, eu me preocuparia que a declaração anterior não fosse muito útil . O frequentista não vai gostar da última afirmação, mas não a entendo bem o suficiente para dar uma descrição justa das objeções do freqüentador.
Depois de ver os dados, o frequentista ainda estará otimista de que o valor verdadeiro está contido dentro do intervalo? Talvez não. Isso é um pouco contra-intuitivo, mas é importante para entender verdadeiramente os intervalos de confiança e outros conceitos baseados na distribuição da amostra. Você pode presumir que o freqüentador ainda diria "Dados os dados, ainda acho que há uma probabilidade de 95% de que o verdadeiro valor esteja nesse intervalo". Um frequentista não apenas questionaria se essa afirmação é verdadeira, mas também questionaria se é significativo atribuir probabilidades dessa maneira. Se você tiver mais perguntas sobre isso, não me pergunte, esse problema é demais para mim!
O bayesiano está feliz em fazer essa afirmação: "Condicionando os dados que acabei de ver, a probabilidade é de 95% de que o verdadeiro valor esteja nessa faixa".
Devo admitir que estou um pouco confuso em um ponto final. Eu entendo e concordo com a afirmação feita pelo frequentista antes que os dados sejam vistos. Eu entendo e concordo com a afirmação feita pelo Bayesiano depois que os dados são vistos. No entanto, não tenho tanta certeza do que o frequentista dirá depois que os dados forem vistos; suas crenças sobre o mundo mudaram? Não estou em posição de entender a filosofia frequentista aqui.
fonte
O estimador de pontos que maximizaP( x | θ ) é o MLE. Este é um estimador de pontos comumente usado em estatísticas freqüentistas, mas é menos comumente usado em estatísticas bayesianas. Nas estatísticas bayesianas, é comum o uso de um estimador de pontos que seja o valor esperado posterior ou o valor que minimiza a perda esperada (risco) em um problema de decisão. Certamente existem alguns casos em que o estimador bayesiano corresponderá ao MLE (por exemplo, se tivermos um uniforme anterior ou, em alguns casos especiais, de minimizar perdas), mas isso não é uma ocorrência comum. Portanto, como regra geral, o MLE é geralmente um estimador freqüentista.
fonte