Como é de conhecimento de todos, o SVM pode usar o método kernel para projetar pontos de dados em espaços mais altos, para que os pontos possam ser separados por um espaço linear. Mas também podemos usar a regressão logística para escolher esse limite no espaço do kernel, então quais são as vantagens do SVM? Como o SVM usa um modelo esparso no qual apenas esses vetores de suporte fazem contribuições na previsão, isso torna o SVM mais rápido na previsão?
32
Respostas:
KLRs e SVMs
Olhando para o acima, parece que a regressão logística do kernel é o que você deve usar. No entanto, existem certas vantagens que os SVMs desfrutam
fonte
Aqui está minha opinião sobre o assunto:
Os SVMs são uma maneira muito elegante de fazer a classificação. Há uma teoria legal, uma matemática bonita, eles generalizam bem e também não são muito lentos. Tente usá-los para regressão, porém, e fica confuso.
A regressão de processo gaussiana tem muitas das mesmas matemáticas de kernelly e funciona muito bem para a regressão. Mais uma vez, o muito elegante, e não é muito lento. Tente usá-los para classificação, e isso começa a parecer bastante arrogante.
Aqui está um capítulo do livro do GP sobre regressão.
Aqui está um capítulo sobre classificação, para comparação. Observe que você acaba com algumas aproximações complicadas ou um método iterativo.
Uma coisa boa sobre o uso de GPs para classificação, no entanto, é que ela fornece uma distribuição preditiva, em vez de uma simples classificação sim / não.
fonte
visite http://www.stanford.edu/~hastie/Papers/svmtalk.pdf
Algumas conclusões: O desempenho da classificação é muito semelhante. Possui propriedades de margem ideais limitantes. Fornece estimativas das probabilidades da classe. Frequentemente, são mais úteis que as classificações. Generaliza naturalmente a classificação da classe M por meio de regressão multit Logit do kernel.
fonte