Eu quero implementar uma regressão de processo gaussiana incremental usando uma janela deslizante sobre os pontos de dados que chegam um por um através de um fluxo.
Deixe denotam a dimensionalidade do espaço de entrada. Portanto, todo ponto de dados possui um número d de elementos.
Seja o tamanho da janela deslizante.
Para fazer previsões, eu preciso calcular o inverso da matriz grama , onde ek é o núcleo exponencial ao quadrado.
Para evitar que o K fique maior a cada novo ponto de dados, pensei em remover o ponto de dados mais antigo antes de adicionar novos pontos e, assim, impedir que o grama cresça. Por exemplo, deixe onde é a covariância dos pesos e é a função de mapeamento implícita implícita no núcleo exponencial ao quadrado.
Agora vamos ] e onde são por matrizes de coluna.
Eu preciso de uma maneira eficaz de descobrir o potencialmente usando . Isso não parece o inverso de um problema de matriz atualizado de classificação 1 que pode ser tratado com eficiência com a fórmula de Sherman-Morrison.
fonte
A estimativa gradual dos modelos GP é bem estudada na literatura. A idéia subjacente é, em vez de condicionar todas as novas observações que você deseja prever, condicionar no ponto um passo à frente e fazer isso repetidamente. Isso se torna, de alguma forma, próximo à filtragem kalman.
fonte