As árvores reforçadas com gradiente podem se encaixar em qualquer função?

14

Para redes neurais, temos o teorema da aproximação universal, que afirma que as redes neurais podem aproximar qualquer função contínua em um subconjunto compacto de .Rn

Existe um resultado semelhante para árvores com gradiente? Parece razoável, pois você pode continuar adicionando mais ramos, mas não consigo encontrar nenhuma discussão formal sobre o assunto.

Edição: Minha pergunta parece muito semelhante a árvores de regressão pode prever continuamente? , embora talvez não pergunte exatamente a mesma coisa. Mas veja essa pergunta para uma discussão relevante.

Imran
fonte
1
Boa pergunta! Não consegui encontrar nada sobre isso, mas aqui estão os limites do PAC nas árvores de decisão. Tente perguntar novamente sobre a história.
Emre
1
Veja aqui: projecteuclid.org/download/pdf_1/euclid.aos/1013203451 . É uma leitura antiga. Eu acredito que tem o que você está procurando. Tanto quanto eu entendo, em princípio, eles podem. Deixe-me saber o que você pensa sobre isso.
TwinPenguins

Respostas:

1

Sim - crie uma região para cada ponto de dados (ou seja, memorize os dados de treinamento).

Assim, é possível que as árvores com gradiente aumentado se ajustem a qualquer dado de treinamento, mas isso teria generalização limitada a novos dados.

Brian Spiering
fonte