Quando (se alguma vez) é uma abordagem freqüentista substancialmente melhor do que uma bayesiana?

72

Antecedentes : Não tenho treinamento formal em estatística bayesiana (embora eu esteja muito interessado em aprender mais), mas sei o suficiente - acho - para entender o porquê de muitos se sentirem como se fossem preferíveis às estatísticas freqüentistas. Até os graduandos da turma introdutória de estatística (em ciências sociais) que estou ensinando consideram a abordagem bayesiana atraente: "Por que estamos interessados ​​em calcular a probabilidade dos dados, dado o nulo? Por que não podemos apenas quantificar a probabilidade de a hipótese nula? Ou a hipótese alternativa? E eu também li tópicos como estes , que atestam os benefícios empíricos das estatísticas bayesianas também.Então, me deparei com esta citação de Blasco (2001; ênfase adicionada):

Se o criador de animais não está interessado nos problemas filosóficos associados à indução, mas em ferramentas para resolver problemas, as escolas de inferência bayesiana e freqüentadora estão bem estabelecidas e não é necessário justificar por que uma ou outra escola é preferida. Agora nenhum deles tem dificuldades operacionais, com exceção de alguns casos complexos ... Escolher uma escola ou outra deve estar relacionado à existência de soluções em uma escola que a outra não oferece , à facilidade com que os problemas são resolvidos , e quão confortável o cientista se sente com o modo particular de expressão resulta.

A pergunta : A citação de Blasco parece sugerir que pode haver momentos em que uma abordagem freqüentista seja realmente preferível a uma abordagem bayesiana. E, portanto, estou curioso: quando uma abordagem freqüentista seria preferível a uma abordagem bayesiana? Estou interessado em respostas que abordem a questão conceitualmente (isto é, quando o conhecimento da probabilidade dos dados condicionados à hipótese nula é especialmente útil?) E empiricamente (isto é, sob quais condições os métodos freqüentistas são superiores aos bayesianos?).

Também seria preferível que as respostas fossem transmitidas da maneira mais acessível possível - seria bom levar algumas respostas de volta à minha turma para compartilhar com meus alunos (embora eu entenda que é necessário algum nível de tecnicidade).

Finalmente, apesar de ser um usuário regular das estatísticas freqüentistas, estou realmente aberto à possibilidade de que o Bayesiano apenas vença de maneira geral.

jsakaluk
fonte
10
Quando você lida com probabilidades objetivas, ou seja, processos naturalmente estocásticos. Por exemplo, a deterioração radioativa não tem nada a ver com suas crenças subjetivas ou informações desconhecidas ou praticamente qualquer outra coisa. Ele segue seu próprio ritmo, e os átomos realmente se dividem aleatoriamente .
Aksakal
6
Veja esta pergunta recente que, infelizmente, acabou sendo muito ampla (votei para reabrir, mas nunca foi): stats.stackexchange.com/questions/192572 . Você está perguntando quase exatamente a mesma coisa. Verifique a resposta lá.
Ameba diz Reinstate Monica
5
@Aksakal: Eu adoraria ter essa discussão, mas é fora de tópico e seremos avisados, então eu cale a boca (e calculo).
Ameba diz Reinstate Monica
12
"Os bayesianos abordam a questão em que todos estão interessados, usando suposições que ninguém acredita, enquanto os freqüentadores usam lógica impecável para lidar com uma questão que não interessa a ninguém" - Louis Lyons
Ruggero Turra
4
@jsakaluk, observe como as fortalezas dos bayesianos são áreas onde não há dados suficientes ou quando os processos são instáveis, ou seja, ciências sociais, psudo-ciências, ciências da vida etc. Não há necessidade de ser bayesiano na mecânica quântica ou na maioria da física. É verdade que você também pode ser bayesiano, mas suas inferências não serão diferentes das de freqüentadores.
Aksakal

Respostas:

54

Aqui estão cinco razões pelas quais os métodos frequentistas podem ser preferidos:

  • Mais rápido. Dado que as estatísticas bayesianas geralmente dão respostas quase idênticas às respostas freqüentistas (e quando não o fazem, não é 100% claro que o bayesiano é sempre o caminho a percorrer), o fato de que as estatísticas freqüentistas podem ser obtidas frequentemente várias ordens de magnitude mais rapidamente é um argumento forte. Da mesma forma, os métodos freqüentistas não requerem tanta memória para armazenar os resultados. Embora essas coisas possam parecer um tanto triviais, especialmente com conjuntos de dados menores, o fato de que Bayesian e Frequentist geralmente concordam em resultados (especialmente se você tiver muitos dados informativos) significa que, se você se importa, pode começar a se preocupar com os menos importantes coisas. E, claro, se você mora no mundo do big data, isso não é trivial.

  • Estatística não paramétrica. Reconheço que a estatística bayesiana tem estatística não paramétrica, mas eu argumentaria que o lado freqüentista do campo tem algumas ferramentas realmente inegavelmente práticas, como a Função de Distribuição Empírica. Nenhum método no mundo jamais substituirá o FED, nem as curvas de Kaplan Meier, etc. (embora claramente isso não quer dizer que esses métodos sejam o fim de uma análise).

  • Menos diagnósticos. Os métodos MCMC, o método mais comum para a adaptação de modelos bayesianos, normalmente exigem mais trabalho do usuário do que sua contraparte frequente. Geralmente, o diagnóstico para uma estimativa do MLE é tão simples que qualquer boa implementação de algoritmo o faz automaticamente (embora isso não signifique que toda implementação disponível seja boa ...). Assim, o diagnóstico algorítmico freqüentista é tipicamente "verifique se não há texto em vermelho ao ajustar o modelo". Dado que todos os estatísticos têm largura de banda limitada, isso libera mais tempo para fazer perguntas como "meus dados são realmente aproximadamente normais?" ou "esses riscos são realmente proporcionais?", etc.

  • Inferência válida sob especificação incorreta do modelo. Todos nós já ouvimos dizer que "Todos os modelos estão errados, mas alguns são úteis", mas diferentes áreas de pesquisa levam isso mais ou menos a sério. A literatura freqüentista está cheia de métodos para corrigir inferência quando o modelo é mal especificado: estimador de autoinicialização, validação cruzada, estimador sanduíche (o link também discute inferência geral do MLE sob especificação incorreta do modelo), equações de estimativa generalizada (GEE's), métodos de quase-verossimilhança, etc. Até onde eu sei, há muito pouco na literatura bayesiana sobre inferência na especificação incorreta de modelo (embora haja muita discussão sobre verificação de modelo, ou seja, verificações preditivas posteriores). Não acho isso por acaso: avaliar como um estimador se comporta em ensaios repetidos não exige que o estimador seja baseado em um modelo "verdadeiro", mas o uso do teorema de Bayes sim!

  • Liberdade do anterior (esse é provavelmente o motivo mais comum pelo qual as pessoas não usam métodos bayesianos para tudo). A força do ponto de vista bayesiano é frequentemente apontada como o uso de priores. No entanto, em todos os campos aplicados em que trabalhei, a idéia de um informativo prévio na análise não é considerada. A leitura de literatura sobre como obter prévios de especialistas não estatísticos fornece boas razões para isso; Eu li artigos que dizem coisas como (homem de palha cruel como parafraseando o meu) "Peça ao pesquisador que o contratou, porque eles têm dificuldade em entender as estatísticas, para determinar que eles têm 90% de certeza do tamanho do efeito que têm problemas em imaginar. Este intervalo normalmente é muito estreito, portanto, arbitrariamente, tente fazê-los aumentar um pouco.Pergunte-lhes se a crença deles se parece com uma distribuição gama. Você provavelmente terá que desenhar uma distribuição gama para eles e mostrar como ela pode ter caudas pesadas se o parâmetro shape for pequeno. Isso também envolverá a explicação do que é um PDF para eles. "(Nota: acho que nem os estatísticos são realmente capazes de dizer com precisãoa priori, se eles têm 90% ou 95% de certeza se o tamanho do efeito está dentro de um intervalo, e essa diferença pode ter um efeito substancial na análise!). Verdade seja dita, eu estou sendo bastante cruel e pode haver situações em que obter um prior pode ser um pouco mais direto. Mas você pode ver como é uma lata de minhocas. Mesmo se você alternar para anteriores não informativos, ainda pode ser um problema; ao transformar parâmetros, o que é facilmente confundido com anteriores não informativos de repente pode ser visto como muito informativo! Outro exemplo disso é que conversei com vários pesquisadores que inflexivelmente nãodeseja ouvir qual é a interpretação dos dados de outro especialista, porque, empiricamente, os outros especialistas tendem a estar confiantes demais. Eles preferem apenas saber o que pode ser deduzido dos dados do outro especialista e depois chegar à sua própria conclusão. Não me lembro onde ouvi, mas em algum lugar li a frase "se você é bayesiano, quer que todos sejam freqüentistas". Interpreto que isso significa que, teoricamente, se você é bayesiano e alguém descreve os resultados de suas análises, tente primeiro remover a influência do anterior e depois descobrir qual seria o impacto se você tivesse usado o seu próprio. Este pequeno exercício seria simplificado se eles tivessem lhe dado um intervalo de confiança em vez de um intervalo credível!

Obviamente, se você abandonar os anteriores informativos, ainda há utilidade nas análises bayesianas. Pessoalmente, é aqui que acredito que sua maior utilidade reside; existem alguns problemas que são extremamente difíceis de obter resposta ao usar métodos MLE, mas que podem ser resolvidos facilmente com o MCMC. Mas minha opinião de que essa é a maior utilidade do Bayesiano deve-se a fortes antecedentes de minha parte;

Cliff AB
fonte
11
(+1) Boa resposta, embora eu suponha que você quis dizer que não precisa de tanta memória para armazenar os resultados?
Jsakaluk
11
Em termos de liberdade dos anteriores: você está dizendo que quanto menos pensar e entender seu problema, melhor? Conheço vários fornecedores de software que gostariam de conversar com você, para que você possa apontar e clicar - ou, melhor ainda, com um clique - e ter uma resposta para qualquer problema que possa imaginar! Caramba, você nem precisa de um problema, basta alimentar seus dados no site deles e eles encontrarão todos os problemas possíveis e os resolverão, muito bom! (Desculpe, não pude resistir a responder com um comentário-homem como palha cruel.)
Wayne
11
@Wayne: Eu sei que você está brincando, mas isso é 100% correto. A estatística é uma ferramenta para responder a problemas do mundo real. Eu realmente quero enfatizar que é uma ferramenta, não um produto final. Independentemente de qual lado do argumento "Frequentista x Bayesiano", amplamente discutido (eu assisto "o que me dá a melhor resposta para a minha pergunta", o que significa que eu gosto de ambos por problemas diferentes), não há como argumentar que a facilidade de uso é um utilitário muito real para qualquer ferramenta.
Cliff AB
Obviamente, se sua ferramenta está produzindo frequentemente um produto terrível, isso é um problema. E se eu estivesse convencido de que um método frequentista estava fazendo isso, mas um método bayesiano não, eu rapidamente aprovaria o método bayesiano.
Cliff AB
11
@CliffAB: A facilidade de uso é importante e, como você diz, se os resultados são de igual qualidade, por que escolher mais difícil de usar? Ao mesmo tempo, pensar, tornar explícitos e entender os priores (não Bayesiano, quero dizer literalmente os priores que todo cientista, todo campo e todo estudo possui) é fundamental para a boa ciência. A estatística bayesiana é explícita e obriga a pensar e entender algumas dessas questões. Na medida em que isso não é apenas um inconveniente pedante, é sem dúvida bom e, portanto, o seu oposto também não é bom.
7777 Wayne
23

Algumas vantagens concretas das estatísticas freqüentistas:

  • Muitas vezes, existem soluções de forma fechada para problemas freqüentes, enquanto você precisaria de um conjugado antes de ter uma solução de forma fechada no análogo bayesiano. Isso é útil por vários motivos - um dos quais é o tempo de computação.
  • Um motivo que, com sorte, acabará desaparecendo: os leigos aprendem estatísticas freqüentistas. Se você quer ser entendido por muitos, precisa falar com frequência.
  • Uma abordagem de "inocente até prova comprovada de culpa" (NHST) é útil quando o objetivo é provar que alguém está errado (vou assumir o seu direito e mostrar que os dados esmagadores sugerem que você está errado). Sim, existem análogos do NHST em bayesiano, mas acho as versões dos freqüentadores muito mais diretas e interpretáveis.
  • Não existe um prior verdadeiramente não informativo que deixa algumas pessoas desconfortáveis.
TrynnaDoStat
fonte
11
(+1) Obrigado - você poderia esclarecer um pouco o primeiro ponto? Como alguém não é bem versado em Bayesian, o ponto que você está fazendo sobre a necessidade de um "conjugado antes" é perdido em mim um pouco ... (?)
jsakaluk
5
P(H0|Data)P(Data|H0)α
@ZacharyBlumenfeld Obrigado por apontar isso, eu tinha Bayesian em minha mente. Vou consertar agora.
TrynnaDoStat
11
αβα+i=1nxiβ+ni=1nxi) sem ter que fazer nenhuma simulação, amostragem ou computação intensa.
TrynnaDoStat
16

A razão mais importante para usar abordagens freqüentistas, que surpreendentemente ainda não foi mencionada, é o controle de erros. Muitas vezes, a pesquisa leva a interpretações dicotômicas (eu deveria fazer um estudo baseado nisso, ou não? Deve implementar uma intervenção, ou não?). As abordagens freqüentistas permitem controlar rigorosamente sua taxa de erro do tipo 1. As abordagens bayesianas não (embora algumas herdem o limite universal das abordagens de probabilidade, mas mesmo assim, as taxas de erro podem ser bastante altas em amostras pequenas e com limiares de evidência relativamente baixos (por exemplo, BF> 3). Você pode examinar as propriedades freqüentistas de Fatores de Bayes (veja, por exemplo, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2604513), mas ainda é uma abordagem frequentista. Penso com muita frequência que os pesquisadores se preocupam mais com o controle de erros do que com a quantificação de evidências em si (em relação a alguma hipótese específica), e acho que, no mínimo, todo mundo se preocupa com o controle de erros até certo ponto, e, portanto, as duas abordagens devem ser usadas complementarmente.

Daniel Lakens
fonte
Bom ponto. Também estou pensando em métodos seqüenciais em grupo e outras formas de testes múltiplos, nos quais parece (do meu ponto de vista restrito, que pode ter negligenciado partes substanciais da literatura) haver uma falta de interesse do lado bayesiano (portanto agora) em termos de obter algum tipo de controle de erro. É claro que, em muitas circunstâncias, os métodos bayesianos - particularmente com priores um tanto céticos ou algum tipo de encolhimento por meio de um modelo hierárquico - controlam os erros um tanto quanto a um grau não quantificável, mas muito mais pensamento foi feito no lado freqüentador de lá.
Björn
3
(+1) Eu realmente gosto deste ponto ... porque é a razão de eu ser filosoficamente freqüentador ... quando fazemos estatísticas para ajudar na inferência, queremos que nossas inferências sejam mais precisas (ou seja, menos erro) do que adivinhar cego. De fato, se eu me importo de que minhas inferências sejam realmente verdadeiras ou falsas (no sentido de serem validadas por estudos subsequentes), as taxas de erro são muito importantes. Eu simplesmente não posso sentir confortável com Bayesian probabilidade (no entanto, os métodos em si são muito útil como sensata "regularlized estimadores" para uma quantidade quando o tamanho da amostra é pequeno ... acho Agresit-Coull)
Isso soa mais como teoria da decisão do que comparação bayes / freqüentista. Além disso, com a abordagem bayesiana, você não precisa se preocupar em interromper as regras .... Eu também entendo que os bayes podem alcançar um "equilíbrio" melhor entre as taxas de erro tipo 1 e tipo 2 ...
probabilityislogic
8

Eu acho que uma das maiores perguntas, como estatístico, você deve se perguntar é se você acredita ou não no princípio da probabilidade. Se você não acredita no princípio da verossimilhança, acho que o paradigma freqüentista da estatística pode ser extremamente poderoso; no entanto, se você acredita no princípio da verossimilhança, acredito que certamente precisará adotar o paradigma bayesiano ou para não violá-lo.


Caso você não esteja familiarizado com isso, o que o princípio da probabilidade nos diz é o seguinte:

θx

(θ;x)=p(x|θ)
x

xy(θ;x)(θ;y)C(x,y)

(θ;x)=C(x,y)(θ;y)for all θ,

xy

C(x,y)(x,y)C(x,y)θ

C(x,y)=1θθ


Agora, um dos empates das estatísticas bayesianas é que, sob prerrogativas adequadas, o paradigma bayesiano nunca viola o princípio da probabilidade. No entanto, existem cenários muito simples em que o paradigma freqüentista viola o princípio da probabilidade.

Aqui está um exemplo muito simples, baseado no teste de hipóteses. Considere o seguinte:

Considere um experimento em que foram realizados 12 ensaios de Bernoulli e três sucessos foram observados. Dependendo da regra de parada, poderíamos caracterizar os dados da seguinte forma:

  • X|θBin(n=12,θ)x=3
  • Y|θNegBin(k=3,θ)y=12

E assim as seguintes funções de probabilidade: que implica que e, portanto, pelo Princípio da Verossimilhança, devemos obter as mesmas inferências sobre partir de qualquer probabilidade.

1(θ;x=3)=(123)θ3(1θ)92(θ;y=12)=(112)θ3(1θ)9
1(θ;x)=C(x,y)2(θ,y)
θ

Agora, imagine testar as seguintes hipóteses do paradigma freqüentista

Ho:θ12versusHa:θ<12

Para o modelo binomial, temos o seguinte:

p-value=P(X3|θ=12)=(120)(12)12+(121)(12)12+(122)(12)12+(123)(12)12=0.0723

Observe que mas os outros termos não satisfazer o princípio da probabilidade.(123)(12)12=1(12;x=3)

Para o modelo Binomial Negativo, temos o seguinte:

p-value=P(Y12|θ12)=(112)(12)12+(122)(12)12+(132)(12)12+...=0.0375

A partir dos cálculos do valor p acima, vemos que no modelo binomial não conseguiríamos rejeitar mas usando o modelo binomial negativo, rejeitaríamos . Assim, mesmo que exista valores de p e decisões baseadas nesses valores de p não coincidam. Esse argumento de valor-p é frequentemente usado pelos bayesianos contra o uso de valores-p freqüentistas.HoHo1(θ;x)2(θ;y)

Agora, considere testar novamente as seguintes hipóteses, mas a partir do paradigma bayesiano

Ho:θ12versusHa:θ<12

Para o modelo binomial, temos o seguinte:

P(θ12|x)=1/21π(θ|x)dx=1/21θ3(1θ)9π(θ)dθ/01θ3(1θ)9π(θ)dθ

Da mesma forma, para o modelo Binomial Negativo, temos o seguinte:

P(θ12|y)=1/21π(θ|x)dx=1/21θ3(1θ)9π(θ)dθ/01θ3(1θ)9π(θ)dθ

Agora, usando as regras de decisão bayesianas, escolha se (ou algum outro limite) e repita da mesma forma para .HoP(θ12|x)>12y

No entanto, e assim chegamos a a mesma conclusão e, portanto, essa abordagem satisfaz o princípio da probabilidade.P(θ12|x)=P(θ12|y)


E assim, para concluir minhas divagações, se você não se importa com o princípio da probabilidade, então ser freqüentador é ótimo! (Se você não pode dizer, eu sou bayesiano :))

RustyStatistician
fonte
11
Agradeço a resposta claramente pensativa (e provavelmente demorada), mas sinto que essa resposta está um pouco afastada do mandato "respostas ... transmitidas da maneira mais acessível possível ..." da pergunta.
Jsakaluk # 6/16
11
@jsakaluk Eu acho que o que eu estava buscando e queria ter certeza de que apoiava o argumento é que, se você estiver disposto a ignorar certas coisas que muitos estatísticos aplicados dão como certo o tempo todo, ou seja, o princípio da probabilidade, use o paradigma frequentista pode ser uma alternativa muito mais simples ao paradigma bayesiano. No entanto, se você não puder, provavelmente terá que encontrar alternativas.
RustyStatistician
4
@RustyStatistician O princípio da verossimilhança é um princípio central para os veranistas. Likelihoodists não são Bayesian em tudo . Postei links na minha resposta. Sua afirmação "se você acredita no princípio da probabilidade, então (creio) certamente terá que adotar o paradigma bayesiano" é falsa.
7246 stan
@ Stan: Eu concordo com você que sim, os verossimilhantes acreditam no princípio da verossimilhança com certeza. Mas eu acho extremamente difícil acreditar que, se você perguntar a qualquer bayesiano, se eles acreditam em aderir ao princípio da probabilidade, eles diriam que não (não) (essa é apenas a minha opinião, você não precisa concordar).
RustyStatistician
2
Os papéis do princípio da verossimilhança (PB), do princípio da condicionalidade (PC) e do princípio da suficiência (SP) na inferência não são simples. Isso ocorre porque esses princípios se relacionam à evidência (apresentada pelos dados), enquanto a inferência envolve ir além da evidência . Isso é sempre arriscado, mas necessário para progredir. Veja Birnbaums Teorema (discutido aqui ... Eu não concordo necessariamente com o resto do papel): arxiv.org/abs/1302.5468
6

Você e eu somos cientistas e, como cientistas, estamos principalmente interessados ​​em questões de evidência. Por esse motivo, acho que as abordagens bayesianas, quando possível, são preferíveis.

As abordagens bayesianas respondem à nossa pergunta: qual é a força da evidência para uma hipótese em detrimento de outra? As abordagens freqüentistas, por outro lado, não o fazem: elas relatam apenas se os dados são estranhos, dada uma hipótese.

Dito isto, Andrew Gelman, notável bayesiano, parece adotar o uso de valores-p (ou verificações gráficas semelhantes a valores-p) como verificação de erros na especificação do modelo. Você pode ver uma alusão a essa abordagem nesta postagem do blog .

Sua abordagem, como eu a entendo, é algo como um processo de duas etapas: primeiro, ele faz a pergunta bayesiana sobre qual é a evidência de um modelo em detrimento do outro. Segundo, ele faz a pergunta freqüentista sobre se o modelo preferido realmente parece plausível, dados os dados. Parece uma abordagem híbrida razoável para mim.

CoolBuffScienceDude
fonte
11
Embora o link para o blog Gelman deva permanecer válido, não será "hoje" depois da meia-noite. Editado de acordo.
Nick Cox
8
Eu discordo totalmente da notação de que abordagens freqüentistas não medem evidências e que isso é apenas no mundo bayesiano. Você está deixando de fora a origem do teste de hipóteses, como o teste LR, mede a evidência de uma hipótese contra a evidência da outra.
Cliff AB
11
(+1) a @CliffAB - para todos que pensam em estatísticas "freqüentistas", consulte "razão de verossimilhança", "Teorema de Birnbaum" e talvez leia um pouco de Royall ... argumentos de homem envolvendo NHST - que, a propósito, não pareciam prejudicar o progresso científico, apesar de suas falhas supostamente catastróficas ... isso ocorre porque estatísticos não são programas do MINITAB baseados em carbono ... eles PENSAM [sim, fazer estatística é na verdade, uma profissão, assim como medicina, economia ou auto-mecânica, ... você não pode simplesmente ler um livro, experimentar uma fórmula e esperar que a verdade caia no seu colo].
2
@Bey: Pessoalmente, acredito que os valores de p prejudicaram o processo científico (em que os biólogos são forçados a se tornar estatísticos em meio período para publicar trabalhos, reduzindo o tempo em que são biólogos), mas eu não não pense que as alternativas aos valores-p reduzem de alguma forma esse problema! Eu sinto que a questão dos valores-p não é o seu background teórico, mas a facilidade de uso por não estatísticos. Probabilidades posteriores (por exemplo) acho que pioram esse problema em particular, e não melhor.
Cliff AB
2
A @CliffAB não poderia concordar mais ... não pensei nisso desse lado ... mas é apenas a natureza da publicação, eu acho ... a menos que os departamentos de pesquisa possam se dar ao luxo de ter estatísticos de equipe. Qualquer ferramenta estatística pode ser mal utilizado por um não conhecedor de seu uso ... pena ferramentas estatísticas parecem tão fácil de usar ...
6

Pessoalmente, estou tendo dificuldade em pensar em uma situação em que a resposta freqüentista seria preferida a uma bayesiana. Meu pensamento é detalhado aqui e em outros artigos do blog fharrell.com sobre problemas com valores-p e testes de hipóteses nulos. Os freqüentistas tendem a ignorar alguns problemas fundamentais. Aqui está apenas uma amostra:

  • Fora do modelo linear gaussiano com variação constante e alguns outros casos, os valores de p calculados são de precisão desconhecida para o seu conjunto de dados e modelo
  • Quando o experimento é seqüencial ou adaptável, geralmente é possível que um valor-p não possa ser computado e só é possível definir um nível geral para atingirα
  • Os freqüentistas parecem felizes por não deixar o erro do tipo I cair abaixo de, digamos, 0,05, não importa agora, o tamanho da amostra aumenta
  • Não há prescrição freqüente de como as correções de multiplicidade são formadas, levando a métodos ad hoc hodge-podge

Em relação ao primeiro ponto, um modelo comumente usado é o modelo logístico binário. Sua probabilidade de log é muito não quadrática, e a grande maioria dos limites de confiança e valores de p calculados para esses modelos não são muito precisos. Compare isso com o modelo logístico bayesiano, que fornece inferência exata.

Outros mencionaram o controle de erros como uma razão para o uso de inferência freqüentista. Eu não acho que isso seja lógico, porque o erro ao qual eles se referem é o erro de longo prazo, prevendo um processo no qual milhares de testes estatísticos são executados. Um juiz que disser "a probabilidade de falsa condenação a longo prazo em meu tribunal é de apenas 0,03" deve ser impedido. Ela é acusada de ter a maior probabilidade de tomar a decisão correta para o atual réu . Por outro lado, menos a probabilidade posterior de um efeito é a probabilidade de zero ou efeito inverso e é a probabilidade de erro que realmente precisamos.

Frank Harrell
fonte
2
"Não há prescrições freqüentes sobre como as correções de multiplicidade são formadas, levando a uma mistura de métodos ad hoc". Por outro lado, nunca vi um bayesiano fazer correções de multiplicidade. Andrew Gelman declara orgulhosamente que nunca os usa. Por exemplo, vi pessoas reportarem intervalos marginais de 95% credíveis para , mas a credibilidade conjunta desses intervalos não é de 95%. Também não é óbvio a melhor maneira de resolver isso. Você tem algum conselho ou exemplo? kθ1,,θkk
civilstat 20/02
5

Muitas pessoas não parecem cientes de uma terceira escola filosófica: probabilidade. O livro de AWF Edwards, Probabilidade, é provavelmente o melhor lugar para ler sobre ele. Aqui está um pequeno artigo que ele escreveu.
O verossimilhança evita os valores-p, como o bayesianismo, mas também evita o prior duvidoso do bayesiano. Há um tratamento de introdução aqui também.

stan
fonte
5
Existe uma abordagem de probabilidade algorítmica de Vovk, desenvolvida a partir das idéias de Kolmogorov.
Aksakal
2
"Muitas pessoas não parecem cientes de uma terceira escola filosófica: probabilidade" Eu não acho que essa frase seja verdadeira em 2016 ...
Tim
4
@ Tim, embora todo mundo que conheço esteja familiarizado com o freqüentismo e o bayesianismo, nunca conheci alguém que tivesse ouvido falar em probabilidade. O questionador original parece ser como meus colegas que foram treinados em frequentismo e estão cada vez mais interessados ​​no bayesianismo. Talvez a maioria das pessoas que leu minha resposta acima pense que estou me referindo à estimativa de probabilidade máxima ou ao teste de hipóteses usando taxas de probabilidade. Não! Sugiro Yudi Pawitan e esta palestra
stan
7
Nenhuma dessas abordagens é religião; portanto, não há muito em que acreditar; elas são úteis apenas para certos tipos de problemas, e algumas são mais adequadas para alguns problemas e outras para outros :)
Tim
11
(+1) por mencionar a escola de probabilidade e pelo comentário sobre Pawitan. O livro de Pawitan, "In All Likelihood", aumentou dramaticamente e foi aprimorado pela prática estatística ... Eu também só conhecia Bayes vs Frequentism. Ele aborda muitos aspectos filosóficos e metodológicos de Bayes, o frequentismo "clássico" e, é claro, abrange a escola de pura probabilidade. Apenas um ótimo livro para se tornar um usuário mais sofisticado de estatísticas ... independentemente de suas inclinações filosóficas.
4

Uma das maiores desvantagens das abordagens freqüentes para a construção de modelos sempre foi, como o TrynnaDoStats observa em seu primeiro ponto, os desafios envolvidos na inversão de grandes soluções em formato fechado. A inversão de matriz de forma fechada requer que toda a matriz seja residente na RAM, uma limitação significativa em plataformas de CPU única com grandes quantidades de dados ou recursos massivamente categóricos. Os métodos bayesianos conseguiram contornar esse desafio simulando sorteios aleatórios de um anterior especificado. Esse sempre foi um dos maiores pontos de venda das soluções bayesianas, embora as respostas sejam obtidas apenas a um custo significativo na CPU.

Andrew Ainslie e Ken Train, em um artigo de cerca de 10 anos atrás, sobre o qual perdi a referência, comparou a mistura finita (que é freqüentista ou fechada) com abordagens bayesianas para a construção de modelos e descobriu que em uma ampla variedade de formas funcionais e métricas de desempenho, os dois métodos apresentaram resultados essencialmente equivalentes. Onde as soluções bayesianas tinham uma vantagem ou possuíam maior flexibilidade, era nos casos em que as informações eram esparsas e de alta dimensão.

No entanto, esse documento foi escrito antes do desenvolvimento de algoritmos de "dividir e conquistar" que alavancam plataformas massivamente paralelas, por exemplo, consulte o artigo de Chen e Minge para obter mais informações sobre isso http://dimacs.rutgers.edu/TechnicalReports/TechReports/2012/2012- 01.pdf

O advento das abordagens de D&C significou que, mesmo para os problemas mais cabeludos, esparsos e de alta dimensão, as abordagens bayesianas não têm mais vantagem sobre os métodos freqüentes. Os dois métodos estão em paridade.

Vale a pena notar esse desenvolvimento relativamente recente em qualquer debate sobre as vantagens ou limitações práticas de qualquer método.

Mike Hunter
fonte
Acho que essa é uma boa adição à discussão (+1), mas acho difícil seguir. Realmente, realmente, realmente adia sua linha de raciocínio ... Talvez você pudesse reorganizá-la um pouco? :)
usεr11852 diz Reinstate Monic
@ user11852 Você não diz que a publicação falha em comunicar algo útil, ao passo que você acha que o desenvolvimento da lógica não está dentro dos padrões jornalísticos. Como esse tópico passou a ser "comunidade", não estou muito inclinado (motivado?) Para trabalhar na reorganização em torno de sua sugestão. Pode permanecer como está. Mas obrigado de qualquer maneira pelo voto positivo e comentário.
5136 Mike Caçador
1.) A inversão matricial é frequentemente usada para a estimativa do MLE (que é apenas um dos muitos métodos freqüentistas), mas nem sempre. Meu trabalho na estimativa de MLE envolve otimização com frequência até parâmetros (ou seja, o espaço dos parâmetros pode crescer linearmente com o tamanho da amostra) e a inversão da matriz não é absolutamente uma opção ... mas ainda otimizo a probabilidade! 2.) A inversão de matriz ainda acontece o tempo todo nas estatísticas bayesianas, como um amostrador de atualizador de blocos. n
Cliff AB
@CliffAB Eu estava pensando na inversão do tipo ANOVA da matriz de produtos cruzados.
Mike Hunter
@Johnson: Entendo. Mas meu argumento era que a inversão da matriz é ortogonal aos métodos frequentista versus bayesiano; ambos os campos usam ferramentas que fazem algo muito semelhante (pelo menos em termos de custos computacionais) em muitos de seus métodos.
Cliff AB
3

Testes freqüentistas se concentram em falsificar a hipótese nula. No entanto, o Teste de significância de hipótese nula (NHST) também pode ser feito de uma perspectiva bayesiana, porque em todos os casos o NHST é simplesmente um cálculo de P (Efeito observado | Efeito = 0). Portanto, é difícil identificar um momento em que seria necessário realizar o NHST de uma perspectiva freqüentista.

Dito isto, o melhor argumento para conduzir o NHST usando uma abordagem freqüentista é a facilidade e a acessibilidade. As pessoas aprendem estatísticas freqüentistas. Portanto, é mais fácil executar um NHST freqüentador, porque há muito mais pacotes estatísticos que simplificam isso. Da mesma forma, é mais fácil comunicar os resultados de um NHST freqüentador, porque as pessoas estão familiarizadas com essa forma de NHST. Então, vejo isso como o melhor argumento para abordagens freqüentes: acessibilidade a programas estatísticos que os executam e facilidade de comunicação de resultados aos colegas. Porém, isso é apenas cultural, portanto esse argumento pode mudar se as abordagens freqüentistas perderem sua hegemonia.

Liz Page-Gould
fonte
5
Os comentários sobre o que Fisher pensou parecer exagerado aqui, a menos que você possa fornecer citações exatas. A hipótese nula é um dispositivo como parte de um teste de significância para tentar desencorajar os cientistas de interpretar demais os resultados de pequenas amostras. Fisher estava tão interessado quanto qualquer outra pessoa em que os cientistas deveriam usar as estatísticas para fazer uma boa ciência; ele próprio era um colaborador muito sério da genética.
Nick Cox
4
Eu concordo completamente, e por isso editei a resposta para remover a especulação sobre o estado mental de Fisher.
Liz Page-Gould
3

Vários comentários:

  • A diferença fundamental entre o estatístico bayesiano e frequentista é que o bayesiano está disposto a estender as ferramentas de probabilidade a situações em que o frequentista não o faria.

    • Mais especificamente, o bayesiano está disposto a usar a probabilidade para modelar a incerteza em sua própria mente sobre vários parâmetros. Para o frequentista, esses parâmetros são escalares (embora escalares em que o estatístico não conhece o valor verdadeiro). Para o bayesiano, vários parâmetros são representados como variáveis ​​aleatórias! Isto é extremamente diferente. A incerteza bayesiana sobre os parâmetros valeus é representada por um prior .
  • Nas estatísticas bayesianas, a esperança é que, depois de observar os dados, o posterior supere o anterior, que o prior não importe. Mas isso geralmente não é o caso: os resultados podem ser sensíveis à escolha do anterior! Diferentes bayesianos com diferentes antecedentes não precisam concordar com os posteriores.

Um ponto-chave a ter em mente é que as declarações do estatístico freqüentador são declarações com as quais dois Bayesianos podem concordar, independentemente de suas crenças anteriores!

O frequentista não comenta sobre anteriores ou posteriores, apenas a probabilidade.

As afirmações do estatístico freqüentista, em certo sentido, são menos ambiciosas, mas as afirmações mais ousadas do bayesiano podem depender significativamente da atribuição de um prior. Nas situações em que os anteriores são importantes e onde há desacordo sobre os anteriores, as declarações mais limitadas e condicionais das estatísticas freqüentistas podem permanecer em terreno mais firme.

Matthew Gunn
fonte
2

O objetivo de muitas pesquisas não é chegar a uma conclusão final, mas apenas obter um pouco mais de evidências para aumentar gradualmente o senso de pergunta da comunidade em uma direção .

As estatísticas bayesianas são indispensáveis ​​quando o que você precisa é avaliar uma decisão ou conclusão à luz das evidências disponíveis. O controle de qualidade seria impossível sem as estatísticas bayesianas. Qualquer procedimento em que você precise coletar alguns dados e depois agir sobre eles (robótica, aprendizado de máquina, tomada de decisões de negócios) se beneficia das estatísticas bayesianas.

Mas muitos pesquisadores não estão fazendo isso. Eles estão realizando alguns experimentos, coletando alguns dados e depois dizendo "Os dados apontam para esse lado", sem realmente se preocupar muito com a questão de saber se essa é a melhor conclusão, considerando todas as evidências que outros reuniram até agora. A ciência pode ser um processo lento, e uma declaração como "A probabilidade de que este modelo esteja correto é de 72%!" geralmente é prematuro ou desnecessário.

Isso também é apropriado de uma maneira matemática simples, porque as estatísticas freqüentistas frequentemente se tornam matematicamente iguais à etapa de atualização de uma estatística bayesiana. Em outras palavras, enquanto a estatística bayesiana é (Modelo Anterior, Evidência) → Novo Modelo, a estatística freqüentista é apenas Evidência e deixa para outras pessoas preencher as outras duas partes.

Owen
fonte
Embora grande parte deste post seja interessante, ele consiste em muitas opiniões sem suporte. Consulte nossa central de ajuda para saber quais tipos de respostas são esperadas neste site.
whuber
@whuber eu vejo. Eu adicionei uma citação da qual me lembro de cima, mas o resto não tenho citações, portanto, se parecer sem suporte, posso excluí-la.
Owen
5
Estou surpreso que você tenha mencionado o controle de qualidade, pois parece uma área em que a interpretação freqüente da probabilidade (frequência relativa em muitos ensaios) seria muito natural: dado que a fábrica está funcionando corretamente, qual a probabilidade de vermos tantos (ou mais) widgets quebrados? Posso insistir para que você elabore o que torna as estatísticas bayesianas particularmente úteis para o CQ?
Matt Krause
@MattKrause Suponha que nosso objetivo seja enviar widgets com defeito a uma taxa <1%. Sabemos que a fábrica produz widgets com defeito a uma taxa de 10% e temos um teste cujas taxas de erro Tipo I e Tipo II são s e 1 / (sqrt (4 - 1 / s ^ 2)) em que s é um parâmetro de rigidez. O que devemos usar para o rigor?
Owen
2
A idéia de que as estatísticas freqüentistas não podem combinar informações de estudos sucessivos parece ignorar o campo das metanálises.
Cliff AB
2

A execução real de um método bayesiano é mais técnica do que a de um freqüentista. Por "mais técnico", quero dizer coisas como: 1) escolhendo prévios, 2) programando seu modelo em um BUGS / JAGS / STAN e 3) pensando em amostragem e convergência.

Obviamente, o nº 1 é praticamente não opcional, por definição de bayesiano. Embora com alguns problemas e procedimentos, pode haver padrões razoáveis, ocultando o problema do usuário. (Embora isso também possa causar problemas!)

Se o problema nº 2 é um problema, depende do software que você usa. As estatísticas bayesianas inclinam-se para soluções mais gerais do que os métodos estatísticos freqüentes, e ferramentas como BUGS, JAGS e STAN são uma expressão natural disso. No entanto, existem funções bayesianas em vários pacotes de software que parecem funcionar como o procedimento freqüentista típico, portanto, isso nem sempre é um problema. (E as soluções recentes, como os pacotes R rstanarme brmssão colmatar esta lacuna.) Ainda assim, o uso dessas ferramentas é muito semelhante ao de programação em um novo idioma.

O item 3 é geralmente aplicável, já que a maioria dos aplicativos bayesianos do mundo real vai usar a amostragem MCMC. (Por outro lado, procedimentos freqüentistas baseados em MLE usam otimização que pode convergir para um mínimo local ou não convergir, e eu me pergunto quantos usuários devem verificar isso e não?)

Como eu disse em um comentário, não tenho certeza de que a libertação dos anteriores seja realmente um benefício científico. Certamente é conveniente de várias maneiras e em vários momentos do processo de publicação, mas não tenho certeza de que realmente traga uma ciência melhor. (E, em geral, todos temos que estar cientes de nossos anteriores como cientistas, ou sofreremos com todos os tipos de preconceitos em nossas investigações, independentemente de quais métodos estatísticos usamos.)

Wayne
fonte
Em relação a (3), muitos modelos clássicos de estatísticas (por exemplo, glm's) têm probabilidades de log côncavas; portanto, é muito raro que algoritmos padrão falhem, fora de casos extremos de canto. Em relação a problemas não-côncavos (por exemplo, NNs), embora exijam muita preocupação com convergência inadequada (que geralmente é entendida pelos usuários), esses são (não por coincidência) também problemas nos quais os algoritmos clássicos do MCMC falham terrivelmente se forem executados apenas por , digamos, a vida de um humano. No entanto, geralmente é menos complicado consertar o MCMC do que o algoritmo de otimização!
Cliff AB
2

Conceitualmente : eu não sei. Acredito que as estatísticas bayesianas são a maneira mais lógica de pensar, mas não justifico o porquê.

A vantagem do frequentista é que é mais fácil para a maioria das pessoas no nível elementar. Mas para mim foi estranho. Levou anos até que eu pudesse realmente esclarecer intelectualmente o que é um intervalo de confiança. Mas quando comecei a enfrentar situações práticas, as idéias freqüentistas pareciam simples e altamente relevantes.

Empiricamente

A questão mais importante na qual tento me concentrar hoje em dia é mais sobre eficiência prática: tempo de trabalho pessoal, precisão e velocidade de computação.

Tempo de trabalho pessoal: para perguntas básicas, quase nunca uso métodos bayesianos: uso ferramentas freqüentistas básicas e sempre vou preferir um teste t a um equivalente bayesiano que me daria dor de cabeça. Quando quero saber se sou significativamente melhor no tictacto do que minha namorada, faço um qui-quadrado :-). Na verdade, mesmo em trabalhos sérios como cientista da computação, as ferramentas básicas freqüentistas são inestimáveis ​​para investigar problemas e evitar conclusões falsas devido ao acaso.

Precisão: no aprendizado de máquina, em que a previsão é mais importante que a análise, não há um limite absoluto entre Bayesiano e Frequentista. O MLE é uma abordagem freqüentista: apenas um estimador. Mas o MLE regularizado (PAM) é uma abordagem parcialmente bayesiana : você encontra o modo do posterior e não se importa com o resto do posterior. Não conheço uma justificativa freqüentista do porquê usar a regularização. Na prática, a regularização às vezes é inevitável, porque a estimativa bruta do MLE é tão super ajustada que 0 seria um melhor preditor. Se a regularização for aceita como um método verdadeiramente bayesiano, apenas isso justifica que Bayes possa aprender com menos dados.

Velocidade de computação: os métodos freqüentes são geralmente mais rápidos em termos de computação e mais simples de implementar. E de alguma forma a regularização fornece uma maneira barata de introduzir um pouco de Bayes neles. Pode ser porque os métodos bayesianos ainda não estão tão otimizados quanto poderiam. Por exemplo, algumas implementações de LDA são rápidas hoje em dia. Mas eles exigiram muito trabalho. Para estimativas de entropia, os primeiros métodos avançados foram bayesianos. Eles trabalharam muito bem, mas logo os métodos freqüentadores foram descobertos e levam muito menos tempo de computação ... Durante o tempo de computação, os métodos freqüentadores são geralmente claramente superiores. Não é absurdo, se você é bayesiano, pensar nos métodos freqüentistas como aproximações dos métodos bayesianos.

Benoit Sanchez
fonte
2
"Não conheço uma justificativa freqüentista do porquê [de] usar a regularização". Isso é fácil; em tentativas repetidas, demonstrou diminuir o erro fora da amostra.
Cliff AB
2

Um tipo de problema no qual uma abordagem baseada em Frequentist específica dominou essencialmente qualquer bayesiano é o da previsão no caso M-open.

O que significa o M-open?

M-open implica que o modelo verdadeiro que gera os dados não aparece no conjunto de modelos que estamos considerando. Por exemplo, se a média verdadeira de é quadrática como uma função de , ainda assim consideramos apenas modelos com a média uma função linear de , estamos no caso M-open. Em outras palavras, o modelo de especificação incorreta resulta em um caso M-open.yxx

Na maioria dos casos, esse é um grande problema para análises bayesianas; praticamente toda a teoria que eu conheço depende do modelo ser especificado corretamente. Certamente, como estatísticos críticos, devemos pensar que nosso modelo é sempre mal especificado. Este é um problema e tanto; grande parte de nossa teoria é baseada no modelo correto, mas sabemos que nunca é. Basicamente, estamos apenas cruzando os dedos, esperando que nosso modelo não seja muito incorreto.

Por que os métodos freqüentistas lidam melhor com isso?

Nem todos fazem. Por exemplo, se usarmos ferramentas MLE padrão para criar erros padrão ou criar intervalos de previsão, não estaremos melhor do que usar métodos bayesianos.

No entanto, há uma ferramenta Frequentist específica que é especificamente projetada para exatamente esse objetivo: validação cruzada. Aqui, para estimar o quão bem o nosso modelo irá prever em novos dados, simplesmente deixamos alguns dados ao ajustá-lo e medimos o quão bem o nosso modelo prevê os dados não vistos.

Observe que esse método é completamente ambivalente ao modelo de especificação errada, apenas fornece um método para estimarmos até que ponto um modelo irá prever novos dados, independentemente de o modelo estar "correto" ou não.

Não acho difícil argumentar que isso realmente mude a abordagem da modelagem preditiva, difícil de justificar sob uma perspectiva bayesiana (supõe-se que prior representa um conhecimento prévio antes de ver dados, a função de probabilidade é o modelo etc.) para um isso é muito fácil de justificar do ponto de vista freqüentista (escolhemos o modelo + parâmetros de regularização que, em amostragens repetidas, levam ao melhor erro de amostragem).

Isso revolucionou completamente como a inferência preditiva é feita. Eu não acho que nenhum estatístico consideraria (ou pelo menos deveria) considerar seriamente um modelo preditivo que não foi construído ou verificado com validação cruzada, quando disponível (ou seja, podemos razoavelmente assumir que as observações são independentes, sem tentar explicar para viés de amostragem, etc.).

Cliff AB
fonte