Quais são as semelhanças e diferenças entre estes três métodos: Bagagem, Boosting, Empilhamento? Qual é o melhor? E porque? Você pode me dar um exemplo para cada
Agregação de bagging ou bootstrap é um caso especial de média de modelo. Dado um conjunto de treinamento padrão, o bagging gera novos conjuntos de treinamento por bootstrapping e, em seguida, os resultados do uso de algum método de treinamento nos conjuntos de dados gerados são calculados. O ensacamento pode estabilizar os resultados de alguns métodos instáveis, como árvores. m m m m
Quais são as semelhanças e diferenças entre estes três métodos: Bagagem, Boosting, Empilhamento? Qual é o melhor? E porque? Você pode me dar um exemplo para cada
Breve definição de reforço : Um conjunto de alunos fracos pode criar um único aluno forte? Um aluno fraco é definido como um classificador que é apenas ligeiramente correlacionado com a classificação verdadeira (pode rotular exemplos melhor do que suposições aleatórias). Breve definição de...
Venho acompanhando as competições do Kaggle há muito tempo e percebo que muitas estratégias de vitória envolvem o uso de pelo menos uma das "três grandes" qualidades: empacotar, aumentar e empilhar. Para as regressões, em vez de se concentrar na construção de um melhor modelo de regressão...
Eu não entendo exatamente o que se entende por tamanho do nó. Eu sei o que é um nó de decisão, mas não o tamanho do
Existem muitas postagens de blog, vídeos do YouTube etc. sobre as idéias de empacotar ou aumentar árvores. Meu entendimento geral é que o pseudo-código para cada um é: Ensacamento: Coletar N amostras aleatórias de x% das amostras e% de recursos Ajuste seu modelo (por exemplo, árvore de decisão)...
Eu (aproximadamente) ouvi dizer que: ensacamento é uma técnica para reduzir a variação de um algoritmo de preditor / estimador / aprendizado. No entanto, nunca vi uma prova matemática formal dessa afirmação. Alguém sabe por que isso é matematicamente verdadeiro? Parece ser um fato amplamente...
Em geral, em um problema de classificação em que o objetivo é prever com precisão a associação de classe fora da amostra, quando não devo usar um classificador de conjunto? Esta questão está intimamente relacionada a: Por que nem sempre usar a aprendizagem por conjuntos? . Essa pergunta pergunta...
Estou analisando um conjunto de dados usando um modelo de efeitos mistos com um efeito fixo (condição) e dois efeitos aleatórios (participante devido ao design do sujeito e ao par). O modelo foi gerado com o lme4pacote: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Em...
Ao usar o bootstrapping para avaliação do modelo, sempre achei que as amostras prontas para uso foram usadas diretamente como conjunto de teste. No entanto, esse parece não ser o caso da abordagem preterida do scikit-learnBootstrap , que parece criar o conjunto de testes a partir do desenho com a...
Uma floresta aleatória é uma coleção de árvores de decisão seguindo o conceito de ensacamento. Quando passamos de uma árvore de decisão para a próxima, então como as informações aprendidas pela última árvore de decisão avançam para a próxima? Porque, de acordo com meu entendimento, não há nada...
Para aumentar os algoritmos, eu diria que eles evoluíram muito bem. No início de 1995, o AdaBoost foi introduzido e, depois de algum tempo, era o Gradient Boosting Machine (GBM). Recentemente, foi lançado o XGBoost, por volta de 2015, que é preciso, lida com o excesso de ajustes e se tornou...
Lendo a excelente modelagem estatística: As duas culturas (Breiman 2001) , podemos aproveitar toda a diferença entre modelos estatísticos tradicionais (por exemplo, regressão linear) e algoritmos de aprendizado de máquina (por exemplo, Bagging, Random Forest, Boosted trees ...). Breiman critica os...
Parece-me que a aprendizagem por conjuntos sempre oferecerá melhor desempenho preditivo do que com apenas uma única hipótese de aprendizagem. Então, por que não os usamos o tempo todo? Meu palpite é que talvez seja devido a limitações computacionais? (mesmo assim, usamos preditores fracos, então...
Se considerarmos uma árvore de decisão adulta (ou seja, uma árvore de decisão não podada), ela tem alta variação e baixo viés. Ensacamentos e florestas aleatórias usam esses modelos de alta variação e os agregam para reduzir a variação e, assim, aprimorar a precisão da previsão. Ambas as Florestas...
O aprendizado do Scikit parece usar predição probabilística, em vez de voto majoritário, para a técnica de agregação de modelos, sem uma explicação do porquê (1.9.2.1. Florestas aleatórias). Existe uma explicação clara para o porquê? Além disso, existe um bom artigo em papel ou de revisão para as...
Ensacamento é o processo de criação de N alunos em N amostras de bootstrap diferentes e, em seguida, calcula a média de suas previsões. Minha pergunta é: por que não usar outro tipo de amostragem? Por que usar amostras de
Estou tendo um pouco de confusão. Eu estava lendo este artigo, onde explicava que a técnica de ensacamento reduz bastante a variação e apenas aumenta ligeiramente o viés. Eu não entendi como isso reduz a variação. Eu sei o que é variação e preconceito. Viés é a incapacidade do modelo para aprender...
Baseado na árvore de aumento de gradiente vs floresta aleatória . GBDT e RF usando estratégias diferentes para lidar com tendências e variações. Minha pergunta é: posso alterar a amostra do conjunto de dados (com substituição) para treinar vários GBDT e combinar suas previsões como resultado...
Eu vim por vários postos e documentos alegando que a poda de árvores em um conjunto de árvores "ensacadas" não é necessária (veja 1 ). No entanto, é necessariamente (ou pelo menos em alguns casos conhecidos) prejudicial realizar a poda (digamos, com a amostra OOB) nas árvores individuais de um...