Estou pensando em um espaço grande (mas finito) de modelos de complexidade variável, que exploro usando o RJMCMC . O anterior no vetor de parâmetro para cada modelo é bastante informativo.
Em que casos (se houver) eu deveria estar preocupado com o paradoxo de Jeffreys-Lindley, favorecendo modelos mais simples, quando um dos modelos mais complexos seria mais adequado?
Existem exemplos simples que destacam os problemas do paradoxo na escolha do modelo bayesiano?
Eu li alguns artigos, a saber, o blog de Xi'an e o de Andrew Gelman , mas ainda não entendi bem o problema.
Respostas:
Desculpe por não estar claro no meu blog !
Nota: Forneci algumas informações sobre a escolha do modelo bayesiano e o paradoxo de Jeffreys-Lindley nesta outra resposta validada por Cross.
O paradoxo de Jeffreys-Lindley está relacionado à escolha do modelo bayesiano, em que a probabilidade marginal se torna sem sentido quando π é umamedida σ- definida (isto é, uma medida com massa infinita) em vez de uma medida de probabilidade. A razão para essa dificuldade é que a massa infinita torna π e c π indistinguíveis de qualquer constante positiva c
O paradoxo original de Jeffreys-Lindley usa a distribuição normal como exemplo. Ao comparar os modelos e X ~ N ( θ , 1 ) o fator de Bayes, é B 12 = exp { - N ( ˉ x n ) 2 / 2 }
Agora, se seus antecedentes são informativos (e, portanto, adequados), não há razão para o paradoxo de Jeffreys-Lindley ocorrer. Com um número suficiente de observações, o fator Bayes selecionará consistentemente o modelo que gerou os dados. (Ou, mais precisamente, o modelo dentro da coleção de modelos considerados para escolha de modelo mais próximo do modelo "verdadeiro" que gerou os dados.)
fonte