Sou bastante evangelístico no que diz respeito ao uso de razões de probabilidade para representar a evidência objetiva a favor / contra um determinado fenômeno. No entanto, aprendi recentemente que o fator Bayes desempenha uma função semelhante no contexto dos métodos bayesianos (isto é, o prior subjetivo é combinado com o fator objetivo Bayes para produzir um estado subjetivo de crença subjetivo atualizado objetivamente). Agora estou tentando entender as diferenças computacionais e filosóficas entre uma razão de verossimilhança e um fator de Bayes.
No nível computacional, entendo que, embora a razão de verossimilhança seja geralmente calculada usando as verossimilhanças que representam a probabilidade máxima para a respectiva parametrização de cada modelo (estimada por validação cruzada ou penalizada de acordo com a complexidade do modelo usando o AIC), aparentemente o fator Bayes de alguma forma usa probabilidades que representam a probabilidade de cada modelo integrado em todo o espaço de parâmetros (ou seja, não apenas no MLE). Como essa integração é realmente alcançada normalmente? Alguém realmente tenta calcular a probabilidade em cada um dos milhares (milhões?) De amostras aleatórias do espaço de parâmetro, ou existem métodos analíticos para integrar a probabilidade no espaço de parâmetro? Além disso, ao calcular o fator Bayes,
Além disso, quais são as diferenças filosóficas entre a razão de verossimilhança e o fator Bayes (nb, não estou perguntando sobre as diferenças filosóficas entre a razão de verossimilhança e os métodos bayesianos em geral, mas o fator Bayes como uma representação da evidência objetiva especificamente). Como caracterizar o significado do fator Bayes em comparação com a razão de verossimilhança?
fonte
Respostas:
Primeiro, qualquer situação em que você considere um termo como para os dados e o modelo é considerado um modelo de probabilidade . Geralmente, isso é o pão com manteiga de qualquer análise estatística, freqüentista ou bayesiana, e essa é a parte que sua análise pretende sugerir que seja um bom ajuste ou um mau ajuste. Portanto, os fatores de Bayes não estão fazendo nada fundamentalmente diferente dos índices de probabilidade.P(D|M) D M
É importante colocar os fatores de Bayes na configuração correta. Por exemplo, quando você tem dois modelos e converte probabilidades em probabilidades, os fatores de Bayes agem como um operador em crenças anteriores:
A diferença real é que os índices de probabilidade são mais baratos de calcular e geralmente conceitualmente mais fáceis de especificar. A probabilidade no MLE é apenas uma estimativa pontual do fator e do denominador do fator Bayes, respectivamente. Como a maioria das construções freqüentistas, ela pode ser vista como um caso especial de análise bayesiana com um plano artificial difícil de entender. Mas, na maioria das vezes, surgiu porque é analiticamente tratável e mais fácil de calcular (na era anterior ao surgimento de abordagens computacionais bayesianas aproximadas).
No ponto da computação, sim: você avaliará as diferentes integrais de probabilidade no cenário bayesiano com um procedimento de Monte Carlo em larga escala em quase todos os casos de interesse prático. Existem alguns simuladores especializados, como o GHK, que funcionam se você assumir certas distribuições e se fizer essas suposições, às vezes você pode encontrar problemas analiticamente tratáveis para os quais existem fatores Bayes totalmente analíticos.
Mas ninguém usa isso; não há razão para. Com amostradores Metropolis / Gibbs otimizados e outros métodos MCMC, é totalmente tratável abordar esses problemas de maneira totalmente orientada a dados e calcular numericamente suas integrais. De fato, é comum fazer isso hierarquicamente e integrar ainda mais os resultados sobre metapriores relacionados a mecanismos de coleta de dados, projetos experimentais não ignoráveis etc.
Eu recomendo o livro Análise de Dados Bayesiana para mais informações. Embora o autor, Andrew Gelman, pareça não se importar muito com os fatores de Bayes . Como um aparte, eu concordo com Gelman. Se você estiver indo para Bayesiano, explore o traseiro completo. Fazer a seleção de modelos com métodos bayesianos é como prejudicá-los, porque a seleção de modelos é uma forma de inferência fraca e quase inútil. Prefiro conhecer distribuições sobre escolhas de modelo, se eu puder ... quem se importa em quantizá-la para tipos de instruções "modelo A é melhor que modelo B" quando você não precisa?
Essa é uma das coisas boas dos métodos bayesianos. Os fatores Bayes respondem automaticamente pela complexidade do modelo em um sentido técnico. Você pode configurar um cenário simples com dois modelos, e com complexidades de modelo assumidas e , respectivamente, com e um tamanho de amostra .M1 M2 d1 d2 d1<d2 N
Então, se é o fator Bayes com no numerador, supondo que seja verdadeiro, pode-se provar que, como , aproxima de a uma taxa que depende da diferença na complexidade do modelo e que o fator Bayes favorece o modelo mais simples. Mais especificamente, você pode mostrar que, em todas as premissas acima,B1,2 M1 M1 N→∞ B1,2 ∞
Estou familiarizado com essa derivação e com a discussão do livro Finite Mixture e Markov Switching Models de Sylvia Frühwirth-Schnatter, mas provavelmente existem relatos estatísticos mais diretos que mergulham mais na epistemologia subjacente a ela.
Não conheço os detalhes suficientemente bem para apresentá-los aqui, mas acredito que existem algumas conexões teóricas bastante profundas entre isso e a derivação da AIC. O livro da teoria da informação de Cover e Thomas sugeriu isso pelo menos.
A seção do artigo da Wikipedia sobre "Interpretação" faz um bom trabalho ao discutir isso (especialmente o gráfico que mostra a escala de força de evidência de Jeffreys).
Como de costume, não há muita coisa filosófica além das diferenças básicas entre os métodos bayesianos e os métodos freqüentadores (com os quais você já parece familiarizado).
O principal é que a razão de verossimilhança não é coerente no sentido holandês do livro. Você pode inventar cenários em que a inferência de seleção do modelo a partir das proporções de probabilidade levará a pessoa a aceitar apostas perdedoras. O método bayesiano é coerente, mas opera em um prior que pode ser extremamente ruim e deve ser escolhido subjetivamente. Compensações .. Compensações ...
FWIW, acho que esse tipo de seleção de modelo fortemente parametrizada não é uma inferência muito boa. Prefiro métodos bayesianos e organizo-os de forma mais hierárquica, e quero que a inferência se concentre na distribuição posterior completa, se for viável computacionalmente fazê-lo. Eu acho que os fatores Bayes têm algumas propriedades matemáticas puras, mas como eu mesmo Bayesiano, não estou impressionado com eles. Eles ocultam a parte realmente útil da análise bayesiana, que é que o força a lidar com seus priores ao ar livre, em vez de varrê-los para debaixo do tapete, e permite que você faça inferência em posteriores completos.
fonte
Para entender a diferença entre as razões de verossimilhança e os fatores de Bayes, é útil considerar uma característica principal dos fatores de Bayes com mais detalhes:
Como os fatores Bayes conseguem explicar automaticamente a complexidade dos modelos subjacentes?
Uma perspectiva sobre essa questão é considerar métodos para inferência aproximada determinística. Bayes variacional é um desses métodos. Isso pode não apenas reduzir drasticamente a complexidade computacional das aproximações estocásticas (por exemplo, amostragem MCMC). Bayes variacionais também fornecem uma compreensão intuitiva do que constitui um fator de Bayes.
Lembre-se primeiro que um fator Bayes se baseia nas evidências de dois modelos concorrentes,
onde as evidências do modelo individual teriam que ser calculadas por uma integral complicada:
Essa integral não é apenas necessária para calcular um fator de Bayes; também é necessário para inferir os próprios parâmetros, isto é, ao calcular .p(θ∣data,Mi)
Uma abordagem Bayes variacional de forma fixa aborda esse problema fazendo uma suposição distributiva sobre os posteriores condicionais (por exemplo, uma suposição gaussiana). Isso transforma um problema de integração difícil em um problema de otimização muito mais fácil: o problema de encontrar os momentos de uma densidade aproximada que é maximamente semelhante ao posterior verdadeiro, mas desconhecido, posterior .q(θ) p(θ∣data,Mi)
O cálculo variacional nos diz que isso pode ser alcançado maximizando a chamada energia livre negativa , que está diretamente relacionada à evidência do modelo de log:F
A partir disso, você pode ver que maximizar a energia livre negativa não apenas nos fornece um posterior aproximado . Como a divergência Kullback-Leibler não é negativa, também fornece um limite inferior na evidência do modelo (log) .q(θ)≈p(θ∣data,Mi) F
Agora podemos voltar à questão original de como um fator Bayes equilibra automaticamente a qualidade do ajuste e a complexidade dos modelos envolvidos. Acontece que a energia livre negativa pode ser reescrita da seguinte maneira:
O primeiro termo é a probabilidade logarítmica dos dados esperados no posterior aproximado; representa a qualidade do ajuste (ou precisão ) do modelo. O segundo termo é a divergência de KL entre o posterior aproximado e o anterior; representa a complexidade do modelo, sob a visão de que um modelo mais simples é mais consistente com nossas crenças anteriores, ou sob a visão de que um modelo mais simples não precisa ser esticado tanto para acomodar os dados.
A aproximação de energia livre à evidência do modelo de log mostra que a evidência do modelo incorpora uma troca entre modelar os dados (isto é, qualidade do ajuste) e permanecer consistente com o nosso anterior (isto é, simplicidade ou complexidade negativa).
Um fator Bayes (em contraste com uma razão de verossimilhança) diz, portanto, qual dos dois modelos concorrentes é melhor em fornecer uma explicação simples e precisa dos dados.
fonte