Para redes neurais, temos o teorema da aproximação universal, que afirma que as redes neurais podem aproximar qualquer função contínua em um subconjunto compacto de .
Existe um resultado semelhante para árvores com gradiente? Parece razoável, pois você pode continuar adicionando mais ramos, mas não consigo encontrar nenhuma discussão formal sobre o assunto.
Edição: Minha pergunta parece muito semelhante a árvores de regressão pode prever continuamente? , embora talvez não pergunte exatamente a mesma coisa. Mas veja essa pergunta para uma discussão relevante.
decision-trees
Imran
fonte
fonte
Respostas:
Sim - crie uma região para cada ponto de dados (ou seja, memorize os dados de treinamento).
Assim, é possível que as árvores com gradiente aumentado se ajustem a qualquer dado de treinamento, mas isso teria generalização limitada a novos dados.
fonte