Por que o xgboost é muito mais rápido que o sklearn GradientBoostingClassifier?
Estou tentando treinar um modelo de aumento de gradiente com mais de 50 mil exemplos com 100 recursos numéricos. XGBClassifierlida com 500 árvores em 43 segundos na minha máquina, enquanto GradientBoostingClassifierlida com apenas 10 árvores (!) em 1 minuto e 2 segundos :( Não me preocupei em...
scikit-learn
xgboost
gbm
data-mining
classification
data-cleaning
machine-learning
reinforcement-learning
data-mining
bigdata
dataset
nlp
language-model
stanford-nlp
machine-learning
neural-network
deep-learning
randomized-algorithms
machine-learning
beginner
career
xgboost
loss-function
neural-network
software-recommendation
naive-bayes-classifier
classification
scikit-learn
feature-selection
r
random-forest
cross-validation
data-mining
python
scikit-learn
random-forest
churn
python
clustering
k-means
machine-learning
nlp
sentiment-analysis
machine-learning
programming
python
scikit-learn
nltk
gensim
visualization
data
csv
neural-network
deep-learning
descriptive-statistics
machine-learning
supervised-learning
text-mining
orange
data
parameter-estimation
python
pandas
scraping
r
clustering
k-means
unsupervised-learning