Em resumo: maximizar a margem pode ser mais geralmente visto como regularizando a solução, minimizando (o que é essencialmente minimizar a complexidade do modelo), isso é feito tanto na classificação quanto na regressão. Mas, no caso de classificação deste minimização é feita sob a condição de que todos os exemplos estão classificados corretamente e no caso de regressão sob a condição de que o valor y de todos os exemplos se desvia menos do que a precisão requerida ε de f ( x ) para a regressão.Wyϵf( X )
Para entender como você passa da classificação para a regressão, é útil ver como nos dois casos se aplica a mesma teoria SVM para formular o problema como um problema de otimização convexo. Vou tentar colocar os dois lado a lado.
ϵ
Classificação
f( x ) = w x + bf( x ) ≥ 1f( x ) ≤ - 1f′=w
f(x)f(x)
f(x)≥1f(x)≤−1
Regressão
f(x)=wx+bf(x)ϵy(x)|y(x)−f(x)|≤ϵepsilonf′(x)=www=0
|y−f(x)|≤ϵ
Conclusão
Ambos os casos resultam no seguinte problema:
min12w2
Sob a condição de que:
- Todos os exemplos estão classificados corretamente (Classificação)
- yϵf(x)