De qualquer algoritmo de amostragem genérico, pode-se derivar um algoritmo de otimização.
De fato, para maximizar uma função arbitrária , basta extrair amostras de . Para pequeno o suficiente, essas amostras ficarão próximas do máximo global (ou máximo local na prática) da função .
Por "amostragem", quero dizer, extrair uma amostra pseudo-aleatória de uma distribuição, dada uma função de probabilidade de log conhecida até uma constante. Por exemplo, amostragem MCMC, Gibbs, Beam Sampling, etc. Por "otimização", quero dizer a tentativa de encontrar parâmetros que maximizem o valor de uma determinada função.
O inverso é possível? Dada uma heurística para encontrar o máximo de uma função ou expressão combinatória, podemos extrair um procedimento de amostragem eficiente?
O HMC, por exemplo, parece tirar proveito das informações de gradiente. Podemos construir um procedimento de amostragem que tire proveito de uma aproximação do Hessian do tipo BFGS? (editar: aparentemente sim: http://papers.nips.cc/paper/4464-quasi-newton-methods-for-markov-chain-monte-carlo.pdf ) Podemos usar o MCTS em problemas combinatórios, podemos traduzir isso em um procedimento de amostragem?
Contexto: uma dificuldade na amostragem costuma ser que a maior parte da massa da distribuição de probabilidade se encontra dentro de uma região muito pequena. Existem técnicas interessantes para encontrar essas regiões, mas elas não se traduzem diretamente em procedimentos de amostragem imparciais.
Edit: Agora tenho uma sensação persistente de que a resposta a essa pergunta é um pouco equivalente à igualdade de classes de complexidade #P e NP, tornando a resposta um provável "não". Explica por que toda técnica de amostragem produz uma técnica de otimização, mas não vice-versa.
fonte
Respostas:
Uma conexão foi levantada por Max Welling e amigos nestes dois documentos:
A essência é que o "aprendizado", ie. a otimização de um modelo transita suavemente para a amostragem a partir do posterior.
fonte
Existe um link, é o truque do Gumbel-Max!
http://www.cs.toronto.edu/~cmaddis/pubs/astar.pdf
fonte
fonte