Na classificação binária do Processo Gaussiano, por que as funções sigmóides são preferidas às funções Gaussianas?

7

Atualmente, estou estudando "Processos Gaussianos para Aprendizado de Máquina" e, no capítulo 3, eles afirmam que o posteriorp(y|X,y,x) (eq. 3.10) e a variável latente posterior p(f|X,y,x)(eq. 3.9) geralmente não pode ser resolvido analiticamente, devido às probabilidades sigmóides em (3.9) e à função sigmóide em (3.10). Para evitar que as pessoas precisem procurar nas equações, elas são as seguintes:

p(y=+1|X,y,x)=σ(f)p(f|X,y,x)df(3.10)p(f|X,y,x)=p(f|X,x,f)p(f|X,y)df(3.9)

Minha principal pergunta é: para classificação binária com f modelado como um processo gaussiano, por que usar funções sigmóides (em qualquer equação) em vez da função gaussiana

p(y=+1|f(x))=g(f(x))exp{f2(x)2}?
Isso levaria a soluções de formulário fechado para ambas as integrais. A função Gaussiana não é monotônica, como funções sigmóides, mas os GPs podem gerar funções com vários pontos de virada, portanto a monotonicidade parece desnecessária. Para garantir que (3.10) converja para quando estiver longe dos dados de treinamento, presumivelmente seria suficiente atribuir uma média ao : onde é um vetor de e é o número de amostras de treinamento, pois: 12xp(f|X)
E[f|X]=ω1nω=2ln12,
1nn 1n
g(ω)=12.

Em contraste com o comportamento das probabilidades sigmóides, as probabilidades gaussianas favoreceriam entradas grandes (positivas ou negativas) em para pontos de entrada rotulados negativamente e pequenas entradas em para pontos rotulados positivamente.ff

As funções gaussianas levariam a problemas que não ocorrem com sigmóides? Existem documentos nos quais as funções gaussianas foram usadas na classificação binária de GP em vez de sigmóides?

Atualização, 25 de maio de 2017

Em uma reflexão mais aprofundada, a média anterior diferente de zero sugerida acima também ajuda a resolver a ambiguidade sobre qual deve ser o sinal de ( não favorece nenhum dos sinais; ). Resolver essa ambiguidade parece ser importante, porque se a média do anterior, , fosse zero, a média de também seria zero com uma probabilidade definida por , já que a anterior e a probabilidade seriam funções até . Ou seja: fgg(f(x))=g(f(x))p(f|X)p(f|X,y)gf

p(y|f)=i=1np(yi|fi)p(yi|fi)={g(fi),yi=+11g(fi),yi=1E[f|X]=0p(f|X,y)=p(y|f)p(f|X))p(y|X)=p(y|f)p(f|X))p(y|X)=p(f|X,y).

Se a média de for zero, os rótulos do conjunto de treinamento não fornecerão nenhuma informação sobre o rótulo do ponto de consulta , portanto, claramente não devemos permita isso. Portanto, além de definir , talvez devêssemos ainda mais para positivo , dando ao desvios padrão relativamente pequenos, por exemplo, , em que é a função de covariância e . Se fizermos isso, nós provavelmente deve também intensificarp(f|X,y)yyE[f|X]=ω1np(f|X,y)fp(f|X)k(x,x)=ωβkβ[2,3]gdo argumento, para que não tenha que estar improvável longe da média anterior para produzir pequenos valores de : onde .fg

g(f(x);s)=exp{f2(x)2s2},
s<1

Essa seria uma maneira razoável de corrigir o problema de ambiguidade do sinal ?f

Ose
fonte

Respostas:

3

Eu acredito que eles mencionaram isso na nota de rodapé do capítulo 3 (primeira página)

Pode-se optar por ignorar a discrição dos valores-alvo e usar um tratamento de regressão, onde todos os alvos são digitados ± 1 para a classificação binária. Isso é conhecido como classificação de mínimos quadrados, consulte a seção 6.5.

Olhando para 6.5, http://www.gaussianprocess.org/gpml/chapters/RW6.pdf, eles mencionam a vantagem de usar funções sigmóides é que as saídas podem ser interpretadas probabilisticamente (ou seja, a probabilidade de um exemplo ter uma resposta positiva) .

Max S.
fonte
11
A classificação dos mínimos quadrados não é o que eu tinha em mente, embora seja outra alternativa interessante a ser considerada na classificação binária. O que eu tinha em mente era fazer a classificação binária GP exatamente como descrito no capítulo 3, exceto que toda ocorrência de é substituída pela função gaussiana acima (observe que o máximo de é 1; não é um PDF gaussiano normalizado) , e o anterior recebe a média descrita na minha pergunta. σggp(f|X)
Ose 24/05
0

O problema dessa abordagem é que o número de termos em aumentaria exponencialmente com o número de pontos marcados negativamente no conjunto de treinamento, portanto a solução em forma fechada para (3.9) teria complexidade de tempo exponencial. Mais especificamente, se assumirmos, sem perda de generalidade, que então Para obter uma solução de formulário fechado para (3.9), temos que expandir o primeiro produto em uma soma de funções Gaussianas (não normalizadas), para que possamos integrar cada uma separadamente: p(y|f)

y1==ya=1,ya+1==yn=+1,
p(y|f)=(i=1a(1g(fi)))i=a+1ng(fi).
i=1a(1g(fi))=IP{1,,a}(1)|I|exp{12iIfi2}.
Existem conjuntos no conjunto de potência dos índices de pontos marcados negativamente , portanto, resolver (3.9) envolveria computação a integrais gaussianas.2aP{1,,a}{1,,a}2a

Ose
fonte