Devo confessar que nunca ouvi falar desse termo em nenhuma das minhas aulas, graduação ou pós-graduação.
O que significa uma regressão logística ser bayesiana? Estou procurando uma explicação com uma transição da logística regular para a logística bayesiana semelhante à seguinte:
Esta é a equação no modelo de regressão linear: .
Esta é a equação no modelo de regressão logística: . Isso é feito quando y é categórico.
O que fizemos foi alterar para ln ( E ( y ).
Então, o que é feito com o modelo de regressão logística na regressão logística bayesiana? Acho que não tem nada a ver com a equação.
A visualização deste livro parece definir, mas eu realmente não entendo. O que é tudo isso antes, probabilidade? O que é ? Alguém pode explicar essa parte do livro ou o modelo de logit Bayesiano de outra maneira?
Nota: Isso já foi perguntado antes, mas não respondi muito bem, eu acho.
Respostas:
A regressão logística pode ser descrita como uma combinação linear
que é passado através da função de link :g
onde a função de link é uma função de logit
onde recebe apenas valores em { 0 , 1 } e as funções inversas de logit transformam a combinação linear η nesse intervalo. É aqui que a regressão logística clássica termina.Y { 0 , 1 } η
No entanto, se você lembrar que para variáveis que recebem apenas valores em { 0 , 1 } , que E ( Y | X , β ) pode ser considerado como P ( Y = 1 | X , β ) . Nesse caso, a saída da função logit pode ser considerada como probabilidade condicional de "sucesso", ou seja, P ( Y = 1 | X ,E( Y) = P( Y= 1 ) { 0 , 1 } E( Y| X, β) P( Y= 1 | X, β) . A distribuição de Bernoullié uma distribuição que descreve a probabilidade de observação do resultado binário, com algumparâmetro p , para que possamos descrever Y comoP( Y= 1 | X, β) p Y
Assim, com a regressão logística, procuramos alguns parâmetros que combinam com variáveis independentes X e formam uma combinação linear η . Na regressão clássica E ( Y | X , β ) = η (assumimos que a função de link é uma função de identidade), no entanto, para o modelo Y que recebe valores em { 0 , 1 } , precisamos transformar η para que ele se ajuste [ 0 , 1 ] variar.β X η E( Y| X, β) = η Y {0,1} η [0,1]
Agora, para estimar a regressão logística em Bayesian maneira que você pegar alguns priores para parâmetros como com a regressão linear (ver Kruschke et al, 2012 ), em seguida, usar a função logit para transformar a combinação linear η , de modo a utilizar a sua saída como um p parâmetro da distribuição de Bernoulli que descreve sua variável Y Então, sim, você realmente usa a equação e o link logit funcionam da mesma maneira que no caso frequencionista, e o resto funciona (por exemplo, escolhendo anteriores) como na estimativa da regressão linear da maneira bayesiana.βi η p Y
A abordagem simples para escolher priors é escolher distribuições normais (mas você também pode usar outras distribuições, por exemplo, distribuição - ou Laplace para um modelo mais robusto) para β i com parâmetros μ i e σ 2 i que são predefinidos ou extraídos de Priores hierárquicos . Agora, com a definição do modelo, você pode usar software como o JAGS para executar a simulação Markov Chain Monte Carlo para estimar o modelo. Abaixo, posto o código JAGS para um modelo logístico simples (veja aqui mais exemplos).t βi μi σ2i
Como você pode ver, o código se traduz diretamente na definição do modelo. O que o software faz é que ele extrai alguns valores do Normal anterior para
a
eb
, em seguida, usa esses valores para estimarp
e, finalmente, usa a função de probabilidade para avaliar a probabilidade dos seus dados, dados esses parâmetros (é quando você usa o teorema de Bayes, veja aqui para descrição mais detalhada).O modelo básico de regressão logística pode ser estendido para modelar a dependência entre os preditores usando um modelo hierárquico (incluindo hiperpriors ). Neste caso, você pode desenhar é de distribuição normal multivariada que nos permite incluir informações sobre covariância Σ entre as variáveis independentesβi Σ
... mas isso está entrando em detalhes, então vamos parar por aqui.
A parte "bayesiana" aqui é escolher anteriores, usando o teorema de Bayes e definindo o modelo em termos probabilísticos. Veja aqui a definição de "modelo bayesiano" e aqui algumas intuições gerais sobre a abordagem bayesiana . O que você também pode notar é que a definição de modelos é bastante direta e flexível com essa abordagem.
Kruschke, JK, Aguinis, H., & Joo, H. (2012). Chegou a hora: métodos bayesianos para análise de dados nas ciências organizacionais. Organizational Research Methods, 15 (4), 722-752.
Gelman, A., Jakulin, A., Pittau, GM e Su, Y.-S. (2008). Uma distribuição prévia padrão pouco informativa para modelos de regressão logística e outros. The Annals of Applied Statistics, 2 (4), 1360–1383.
fonte
É isso que o torna bayesiano. O modelo generativo para os dados é o mesmo; a diferença é que uma análise bayesiana escolhe alguma distribuição anterior para parâmetros de interesse e calcula ou aproxima uma distribuição posterior , na qual toda a inferência se baseia. A regra de Bayes relaciona os dois: O posterior é proporcional aos tempos de probabilidade anteriores.
Alguns modelos freqüentistas podem estar relacionados a uma contrapartida bayesiana com um anterior específico, embora eu não tenha certeza do que corresponde neste caso.
fonte