Suponha que eu tenha uma função suave como . Eu tenho um conjunto de treinamento D \ subsetneq \ {((x, y), f (x, y)) | (x, y) \ in \ mathbb {R} ^ 2 \} e, é claro, eu não sei f, embora possa avaliar f onde quiser. D ⊊ { ( ( x , y ) , f ( x , y ) ) | ( x , y ) ∈ R 2 } f f
As árvores de regressão são capazes de encontrar um modelo suave da função (portanto, uma pequena alteração na entrada deve fornecer apenas uma pequena alteração na saída)?
Pelo que li na Aula 10: Árvores de regressão , parece-me que as árvores de regressão basicamente colocam os valores das funções nos compartimentos:
Para árvores de regressão clássicas, o modelo em cada célula é apenas uma estimativa constante de Y.
Enquanto escrevem "clássico", acho que há uma variante em que as células fazem algo mais interessante?
fonte
Nas árvores de regressão clássicas, você tem um valor único na folha, mas na folha você pode ter um modelo de regressão linear, verifique este ticket.
Você também pode usar o conjunto de árvores (Random Forest ou Gradient Boosting Machines) para ter um valor de saída contínuo.
fonte
Se você estender levemente a pergunta para incluir técnicas gerais de aumento de gradiente (em contraste com o caso especial de árvores de regressão aumentada), a resposta é sim. O aumento de gradiente tem sido usado com sucesso como uma alternativa para a seleção de variáveis. Um bom exemplo é o pacote mboost . A chave é que a classe de alunos base usada para impulsionar consiste em modelos contínuos para começar. Este tutorial descreve classes típicas de alunos da base da seguinte maneira:
Observe que ele menciona particularmente wavelets. Árvores e wavelets foram combinadas com sucesso antes em wavelets baseadas em árvores.
fonte