Para aumentar os algoritmos, eu diria que eles evoluíram muito bem. No início de 1995, o AdaBoost foi introduzido e, depois de algum tempo, era o Gradient Boosting Machine (GBM). Recentemente, foi lançado o XGBoost, por volta de 2015, que é preciso, lida com o excesso de ajustes e se tornou vencedor de várias competições do Kaggle. Em 2017, o LightGBM foi introduzido pela Microsoft e oferece um tempo de treinamento significativamente menor em comparação com o XGBoost. Além disso, o CatBoost foi introduzido pelo Yandex para lidar com recursos categóricos.
A Random Forest foi introduzida no início dos anos 2000, mas houve algum sucessor digno dela? Eu acho que se existisse um algoritmo de empacotamento melhor do que o Random Forest (que pode ser facilmente aplicado na prática), ele teria ganhado alguma atenção em lugares como o Kaggle. Além disso, por que impulsionar se tornou a técnica de conjunto mais popular, é porque você pode construir menos árvores para uma previsão ideal?
fonte
Respostas:
O xgboost, o catboost e o lightgbm usam alguns recursos da floresta aleatória (amostragem aleatória de variáveis / observações), então eu acho que eles são um sucessor do reforço e da RF juntos e tomam as melhores coisas de ambos. ;)
fonte