Minha pergunta básica é: como você extrairia uma distribuição inadequada? Faz mesmo sentido colher amostras de uma distribuição imprópria?
O comentário de Xi'an aqui aborda a questão, mas eu estava procurando mais alguns detalhes sobre isso.
Mais específico para o MCMC:
Ao falar sobre o MCMC e ler artigos, os autores enfatizam ter obtido distribuições posteriores apropriadas. Existe o famoso artigo de Geyer (1992) onde o autor esqueceu de verificar se o posterior era adequado (caso contrário, um excelente artigo).
Mas, suponha que a tenha uma probabilidade e uma distribuição anterior inadequada em θ, de modo que o posterior resultante também seja inadequado, e o MCMC seja usado para amostrar a partir da distribuição. Nesse caso, o que a amostra indica? Existe alguma informação útil neste exemplo? Estou ciente de que a cadeia de Markov aqui é transitória ou nula-recorrente. Existem sugestões positivas se for nulo-recorrente ?
Finalmente, na resposta de Neil G aqui , ele mencionou
você pode tipicamente provar (usando o MCMC) a partir da parte posterior, mesmo que seja impróprio.
Ele menciona que essa amostragem é comum no aprendizado profundo. Se isso é verdade, como isso faz sentido?
fonte
Respostas:
A amostragem de um posterior inadequado (densidade) não faz sentido do ponto de vista probabilístico / teórico. A razão para isso é que a função f não possui uma integral finita sobre o espaço do parâmetro e, consequentemente, não pode ser vinculada a um modelo de probabilidade ( medida finita) ( Ω , σ , P ) (espaço, álgebra sigma, medida de probabilidade )f f ( Ω , σ, P )
Se você tem um modelo com um anterior inadequado que leva a um posterior inadequado, em muitos casos você ainda pode fazer uma amostra usando o MCMC, por exemplo, Metropolis-Hastings, e as "amostras posteriores" podem parecer razoáveis. Isso parece intrigante e paradoxal à primeira vista. No entanto, a razão para isso é que os métodos MCMC estão restritos a limitações numéricas dos computadores na prática e, portanto, todos os suportes são limitados (e discretos!) Para um computador. Então, sob essas restrições (limites e discrição), o posterior é realmente adequado na maioria dos casos.
Existe uma grande referência de Hobert e Casella que apresenta um exemplo (de natureza ligeiramente diferente) em que você pode construir um amostrador de Gibbs para um posterior, o posterior parece perfeitamente razoável, mas o posterior é impróprio!
http://www.jstor.org/stable/2291572
Um exemplo semelhante apareceu recentemente aqui . De fato, Hobert e Casella alertam o leitor que os métodos MCMC não podem ser usados para detectar impropriedades posteriores e que isso deve ser verificado separadamente antes de implementar qualquer método MCMC. Em suma:
PS (um pouco na língua): nem sempre acredite no que as pessoas fazem no Machine Learning. Como o professor Brian Ripley disse: "o aprendizado de máquina é estatística menos qualquer verificação de modelos e suposições".
fonte
Oferecendo uma visão alternativa e mais aplicada da excelente resposta de Rod acima -
Portanto, em princípio, eu ficaria bem em usar uma amostra gerada pelo MCMC a partir de uma distribuição imprópria no trabalho aplicado, mas prestaria muita atenção em como essa impropriedade surgiu e em como a amostra aleatória será afetada por ela . Idealmente, a amostra aleatória não seria afetada por ela, como no meu exemplo de cachorro-quente, onde em um mundo razoável você nunca geraria um número aleatório maior que o número de pessoas em São Francisco ...
Você também deve estar ciente do fato de que seus resultados podem ser bastante sensíveis ao recurso do posterior que o causou inadequado, mesmo se você o truncar em um grande número posteriormente (ou qualquer alteração apropriada para o seu modelo. ) Você gostaria que seus resultados fossem robustos a pequenas alterações que mudam sua parte posterior de imprópria para adequada. Isso pode ser mais difícil de garantir, mas isso faz parte do problema maior de garantir que seus resultados sejam robustos às suas suposições, especialmente as que são feitas por conveniência.
fonte