Eu tenho lido um pouco sobre o aumento de algoritmos para tarefas de classificação e o Adaboost em particular. Entendo que o objetivo do Adaboost é levar vários "alunos fracos" e, por meio de um conjunto de iterações sobre dados de treinamento, forçar os classificadores a aprender a prever as classes nas quais os modelos cometem erros repetidamente. No entanto, eu queria saber por que tantas das leituras que fiz utilizaram as árvores de decisão como o classificador fraco. Existe uma razão específica para isso? Existem alguns classificadores que são candidatos particularmente bons ou ruins ao Adaboost?
machine-learning
classification
algorithms
boosting
kylerthecreator
fonte
fonte
Respostas:
Eu falei sobre isso em uma resposta a uma pergunta SO relacionada . As árvores de decisão geralmente são muito boas para impulsionar, muito mais do que outros algoritmos. O ponto de marcador / versão de resumo é este:
fonte
Eu não tenho uma resposta em livro. No entanto, aqui estão alguns pensamentos.
O aumento pode ser visto em comparação direta com ensacamento. Essas são duas abordagens diferentes do dilema de compensação de variação de polarização. Embora o ensacamento tenha como alunos fracos, alguns alunos com viés baixo e alta variação, calculando a média do conjunto de ensacamentos, diminuem a variação para um pequeno viés. Aumentar, por outro lado, funciona bem com diferentes alunos fracos. Os alunos fracos que impulsionam têm alto viés e baixa variação. Ao formar um aluno em cima de outro, o conjunto estimulante tenta diminuir o viés, por um pouco de variação.
Como conseqüência, se você considerar, por exemplo, usar ensacamento e reforço de árvores como alunos fracos, a melhor maneira de usar é árvores pequenas / curtas com reforço e árvores muito detalhadas com ensacamento. É por isso que, muitas vezes, um procedimento de reforço usa um coto de decisão como aluno fraco, que é a árvore mais curta possível (uma única condição se em uma única dimensão). Esse coto de decisão é muito estável e, portanto, apresenta uma variação muito baixa.
Não vejo nenhuma razão para usar árvores com procedimentos de reforço. No entanto, árvores curtas são simples, fáceis de implementar e fáceis de entender. No entanto, acho que, para ter sucesso com um procedimento de reforço, seu aluno fraco precisa ter baixa variação, deve ser rígido, com muito poucos graus de liberdade. Por exemplo, não vejo sentido em ter como aluno fraco uma rede neural.
Além disso, você deve observar que, para algum tipo de procedimento de aumento, aumento de gradiente, por exemplo, Breiman descobriu que, se o aluno fraco é uma árvore, alguma otimização na maneira como o aumento de desempenho pode ser feito. Assim, temos árvores que aumentam gradualmente. Há uma boa exposição ao aumento no livro da ESTL.
fonte