A divergência de Kullback-Leibler é uma métrica para comparar duas funções de densidade de probabilidade, mas que métrica é usada para comparar dois e GP ?
gaussian-process
metric
pushkar
fonte
fonte
Respostas:
Observe que a distribuição dos processos gaussianos é a extensão do gaussiano multivariado para possivelmente possivelmente infinito . Portanto, você pode usar a divergência de KL entre as distribuições de probabilidade GP integrando over :X R XX→R X RX
Você pode usar métodos de MC para aproximar numericamente essa quantidade em um intervalo discreto.X amostrando repetidamente os processos de acordo com sua distribuição de GP. Não sei se a velocidade de convergência é suficientemente boa ...
Observe que se é finito com , você volta à divergência KL usual para distribuições normais multivariadas: | X | = N D K L ( L P ( μ 1 , K 1 ) , L P ( μ 2 , K 2 ) ) = 1X |X|=n
fonte
Recordar que se é um processo normal de média função m e função de covariância K , então, para cada t 1 , ... , t k ∈ T , o vector aleatório ( X ( t 1 ) , ... , X ( t k ) ) tem uma distribuição normal multivariada com vetor médio ( m ( t 1 ) , … , mX:T×Ω→R m K t1,…,tk∈T (X(t1),…,X(tk)) e matriz de covariância Σ = ( σ i j ) = ( K ( t i , t j ) ) , onde usamos a abreviação comum X ( t ) = X ( t ,(m(t1),…,m(tk)) Σ=(σij)=(K(ti,tj)) .X(t)=X(t,⋅)
Cada realização é uma função real cujo domínio é o índice set T . Suponha que T = [ 0 , 1 ] . Dados dois Processos Gaussianos X e Y , uma distância comum entre duas realizações X (X(⋅,ω) T T=[0,1] X Y e Y (X(⋅,ω) é sup t ∈ [ 0 , 1 ] | X ( t , ω ) - Y ( t , ω ) | . Portanto, parece natural definir a distância entre os dois processos X e Y como
d ( X , Y ) = EY(⋅,ω) supt∈[0,1]|X(t,ω)−Y(t,ω)| X Y
Não sei se existe uma expressão analítica para essa distância, mas acredito que você pode calcular uma aproximação de Monte Carlo da seguinte maneira. Corrija uma grade fina 0 ≤ t 1 < ⋯ < t k ≤ 1 e colete amostras ( x i 1 , … , x i k ) e ( y i 1 , … , y i k ) dos vetores aleatórios normais ( X ( t 1 )
fonte