É possível realizar uma seleção aproximada de bayesianos (1) de hiperparâmetros (por exemplo, escala de covariância) com o código GPML, em vez de maximizar a probabilidade marginal (2)? Eu acho que o uso de métodos MCMC para resolver as integrais que envolvem hiperparâmetros anteriores deve levar a melhores resultados ao lidar com o ajuste excessivo. Até onde eu sei, a estrutura GPML não inclui esses cálculos, mas talvez existam outros códigos de terceiros.
(1) Sec. 5.2, cap. 5 em Processo Gaussiano de Aprendizado de Máquina, Rasmussen & Williams, 2006
Respostas:
Há outro pacote para aprendizado de máquina usando processos gaussianos chamado GPstuff, que tem tudo na minha opinião. Você pode usar o MCMC, integração em uma grade etc. para marginalizar seus hiperparâmetros.
NB Na documentação, eles chamam hiperparâmetros apenas parâmetros.
fonte