Usando Adaboost com SVM para classificação

11

Eu sei que o Adaboost tenta gerar um classificador forte usando uma combinação linear de um conjunto de classificadores fracos.

No entanto, li alguns artigos sugerindo que o Adaboost e os SVMs trabalham em harmonia (embora o SVM seja um classificador forte) em determinadas condições e casos .

Não consigo entender, de uma perspectiva arquitetônica e de programação, como eles funcionam em conjunto. Eu li muitos artigos (talvez os errados) que não explicavam claramente como eles funcionam juntos.

Alguém pode lançar alguma luz sobre como eles funcionam em uma combinação para uma classificação eficaz? Ponteiros para alguns artigos / artigos / periódicos também serão apreciados.

garak
fonte

Respostas:

8

Este artigo é muito bom. Simplesmente diz que o SVM pode ser tratado como um classificador fraco se você usar menos amostras para treiná-lo (digamos, menos da metade do conjunto de treinamento). Quanto mais altos os pesos, maior a chance de ser treinado pelo 'SVM fraco'

editar: link corrigido agora.

poperin
fonte
Eu sei que essa é uma pergunta antiga, mas o link está quebrado. Você conhece o título do trabalho ou o nome do autor, para que eu possa encontrar um link alternativo?
carlosdc
Caso o link acabe novamente no futuro, o documento é chamado "Boosting Support Vector Machines", de Elkin García e Fernando Lozano.
Dougal 24/04
2

O artigo AdaBoost com classificadores de componentes baseados em SVM da Xuchun Li etal também fornece uma intuição.
Em um resumo curto, mas talvez tendencioso: eles estão tentando tornar os classificadores svm "fracos" (ligeiramente acima de 50%) ajustando os parâmetros para evitar os casos em que um classificador pode ter muito peso ou todos os classificadores são disparados da mesma forma.

ZijunLost
fonte