Perguntas com a marcação «bagging»

Agregação de bagging ou bootstrap é um caso especial de média de modelo. Dado um conjunto de treinamento padrão, o bagging gera novos conjuntos de treinamento por bootstrapping e, em seguida, os resultados do uso de algum método de treinamento nos conjuntos de dados gerados são calculados. O ensacamento pode estabilizar os resultados de alguns métodos instáveis, como árvores. m m m m

15
Qual método de comparação múltipla usar para um modelo mais antigo: lsmeans ou glht?

Estou analisando um conjunto de dados usando um modelo de efeitos mistos com um efeito fixo (condição) e dois efeitos aleatórios (participante devido ao design do sujeito e ao par). O modelo foi gerado com o lme4pacote: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Em...

13
Por que nem sempre usar a aprendizagem em conjunto?

Parece-me que a aprendizagem por conjuntos sempre oferecerá melhor desempenho preditivo do que com apenas uma única hipótese de aprendizagem. Então, por que não os usamos o tempo todo? Meu palpite é que talvez seja devido a limitações computacionais? (mesmo assim, usamos preditores fracos, então...

10
Por que a embalagem usa amostras de bootstrap?

Ensacamento é o processo de criação de N alunos em N amostras de bootstrap diferentes e, em seguida, calcula a média de suas previsões. Minha pergunta é: por que não usar outro tipo de amostragem? Por que usar amostras de

9
Confusão relacionada à técnica de ensacamento

Estou tendo um pouco de confusão. Eu estava lendo este artigo, onde explicava que a técnica de ensacamento reduz bastante a variação e apenas aumenta ligeiramente o viés. Eu não entendi como isso reduz a variação. Eu sei o que é variação e preconceito. Viés é a incapacidade do modelo para aprender...