Exemplo de como a estatística bayesiana pode estimar parâmetros que são muito difíceis de estimar através de métodos freqüentes

9

Os estatísticos bayesianos sustentam que "a estatística bayesiana pode estimar parâmetros que são muito difíceis de estimar através de métodos freqüentes". A seguinte citação retirada desta documentação do SAS diz a mesma coisa?

Ele fornece inferências que dependem dos dados e são exatas, sem depender de aproximação assintótica. A inferência de amostra pequena ocorre da mesma maneira como se houvesse uma amostra grande. A análise bayesiana também pode estimar qualquer função dos parâmetros diretamente, sem usar o método "plug-in" (uma maneira de estimar os funcionais inserindo os parâmetros estimados nos funcionais).

Vi uma declaração semelhante em algum livro, mas não me lembro onde. Alguém por favor pode me explicar isso com um exemplo?

Stat-R
fonte
Qual é a probabilidade de o sol nascer amanhã? pt.wikipedia.org/wiki/Sunrise_problem Este exemplo pode ser mais trivial do que você esperava
Hugh
Você pode colocar a cotação diretamente na sua pergunta? O título parece não ter relação com o segundo marcador.
Hugh
11
A afirmação nessa citação não é boa em que (a) "exato" não significa nada lá e (b) a crítica do plug-in só se aplica quando se considera a estimativa posterior completa e não outra estimativa, mais dependendo da função de perda escolhida para a estimativa. Veja esta outra pergunta para obter algumas respostas .
Xi'an

Respostas:

8

Eu tenho objeções com essa citação:

  1. θθ
  2. π(θ|D)π(θ|D)π(θ)θdeclarações de probabilidade somente dentro da estrutura fornecida pelo par antes x verossimilhança . Alterar um termo no par modifica o posterior e a inferência, enquanto não há argumento genérico para defender um único prior ou probabilidade.
  3. Da mesma forma, outras declarações de probabilidade como “o parâmetro true tem uma probabilidade de 0,95 de cair em um intervalo credível de 95%” encontradas na mesma página desta documentação do SAS têm um significado em relação à estrutura da distribuição posterior, mas não em valor absoluto.
  4. f(x|θ)=g(x,z|θ)dz
    g(x,z|θ)(X,Z)Zθ(θ,Z), onde a evolução de populações de um ancestral comum envolve eventos latentes em árvores binárias. Esse modelo pode ser tratado por inferência bayesiana [aproximada] por meio de um algoritmo chamado ABC, embora também existam resoluções de software não bayesianas .
  5. No entanto, mesmo nesses casos, não acho que a inferência bayesiana seja a única solução possível. Técnicas de aprendizado de máquina, como redes neurais, florestas aleatórias, aprendizado profundo, podem ser classificadas como métodos freqüentistas, pois treinam uma amostra por validação cruzada, minimizando um critério de erro ou distância que pode ser visto como uma expectativa [no modelo real] aproximado por uma média amostral. Por exemplo, o modelo coalescente de Kingman também pode ser tratado por resoluções de software não Bayesianas .
  6. h(θ)h(θ^)θ
Xi'an
fonte
A resposta é boa na medida em que vai. Oponho-me ao ponto 5, pois atribui aos métodos ML um desempenho superior que ainda não foi justificado pela teoria. Além disso, o que "... modelo verdadeiro ..." significa? Sem dúvida, esses métodos são populares, mas essa popularidade geralmente é justificada por sua capacidade de "escalar". Infelizmente, muitos dos insights diagnósticos oferecidos por métodos bayesianos e não freqüentadores de ML são perdidos quando essas abordagens são usadas. Em particular, a validação cruzada pode gerar taxas de erro mais altas do que outras técnicas. Ver Efron, 1983, 1986, JASA.
Jan Galkowski
Obrigado. Na verdade, eu não dotei métodos de ML com poderes "superiores", basta mencionar que algumas respostas de ML podem ser propostas para modelos complexos. E por "modelos verdadeiros", quero dizer a avaliação dos desempenhos de um método assumindo (erroneamente) que os dados são produzidos pelo referido modelo. Qual é um defeito da maioria das análises estatísticas imo.
Xian