Quais métodos gerais de aprendizado de máquina existem que tentam "aprender" ou interpolar uma função multivariada suave e que conseguem realmente escolher os pontos em que a função é avaliada durante o processo de aprendizado (exploração)?
A idéia seria que cada avaliação de função seja mais ou menos dispendiosa e o algoritmo aprenda a explorar as regiões do espaço em que o ganho de conhecimento é maior (vs. o custo de avaliar a função). A função pode ser não analítica (por exemplo, com dobras) nos casos mais interessantes.
Minha formação é em física e tenho certeza de que tais métodos existem, mas apesar de algumas pesquisas, não consegui encontrar algo diretamente relevante, possivelmente porque não conheço os termos certos a serem procurados. Eu só sei que, de um modo mais geral, o 'aprendizado por reforço' é a área da IA que lida com exploração e recompensas, então talvez os métodos que eu estou pedindo representem algum caso especial disso.
Para esclarecimento, aqui está um exemplo: você pode obter o diagrama de fases de uma substância, ou seja, a densidade em função da pressão pe temperatura T. Então, estamos lidando com uma função (principalmente) suave de duas variáveis (p, T). Sua avaliação em qualquer ponto (p, T) requer uma simulação cara-de-Carlo (muito tempo de CPU; quanto depende até onde você está no espaço p-T). O algoritmo ideal escolheria criteriosamente pontos (p, T) nos quais avaliar a densidade, tentando ir para regiões onde a função tem as características mais salientes (por exemplo, linhas de transição de fase, ou seja, não analiticas). Depois, quando você solicita ao algoritmo a densidade em qualquer outro ponto (p, T), ele fornece a melhor interpolação / extrapolação possível que ele pode obter, considerando todas as informações que adquiriu durante sua fase exploratória.
fonte
Respostas:
Eu examinaria o campo do "projeto experimental ideal" em problemas inversos bayesianos, particularmente o trabalho recente de Alen Alexandrian.
http://arxiv.org/abs/1410.5899
http://www4.ncsu.edu/~aalexan3/research.html
Essencialmente, existe um problema inverso interno para aproximar a função com base em medições pontuais de quantidades derivadas, hospedado em um problema externo de otimização para escolher os pontos com base na minimização de uma combinação do erro e da variação.
Além disso, você não precisa executar um procedimento completo de solução interna-externa. Em vez disso, você pode usar as condições KKT para o problema interno como restrição para o problema externo e formular um sistema KKT "meta" para o problema combinado.
É formulado na linguagem de problemas inversos restritos ao PDE, mas também se aplica a situações mais simples como o seu problema (o "PDE" se torna a matriz de identidade ..)
fonte
Aprendizado ativo é um termo usado na literatura de aprendizado de máquina para a situação em que o algoritmo de aprendizado pode consultar interativamente o valor da função em determinados pontos. Não sei se existem algoritmos existentes na literatura para o aprendizado ativo de funções multivariadas suaves, mas parece que é isso que você deseja. Você poderia gastar um pouco de tempo com o Google Scholar procurando trabalho nessa área.
Você também pode observar o design experimental ideal .
fonte
algoritmos genéticos podem ser usados para esse fim. em alguns casos, a avaliação da função de condicionamento físico é um pouco "cara". parte da dificuldade é codificar algum tipo de medida de "regiões interessantes" e essa métrica teria que quantificar medidas em avaliações de múltiplas funções, ou seja, uma única avaliação de função não é suficiente para "perceber uma tendência". ou seja:
e depois você o chama de "encontrando recursos mais salientes" . essa afirmação é problemática porque geralmente é difícil quantificar matematicamente "onde o ganho de conhecimento é o maior" ou "características salientes". uma possibilidade de formalizar / quantificar é considerar "alta entropia versus baixa entropia" para a qual existe um grande corpo de teoria.
seu problema também é um pouco dividido entre as linhas de aprendizado supervisionado e não supervisionado, de modo que é uma área para analisar melhor o problema.
Um recente caso importante de aplicação bem-sucedida de ML na física foi o desafio de aprendizado de máquina de Higgs e incorpora muitas das idéias que você menciona. nesse caso, o comportamento da trilha de partículas é previsto pelo algoritmo ML e aprende automaticamente sobre ruído versus sinal nos dados. algoritmos vencedores geralmente usavam árvores de decisão, conforme descrito no artigo.
fonte