Cada árvore na floresta é construída a partir de uma amostra de inicialização das observações em seus dados de treinamento. Essas observações na amostra de bootstrap constroem a árvore, enquanto as que não estão na amostra de bootstrap formam as amostras prontas para uso (ou OOB).
Deve ficar claro que as mesmas variáveis estão disponíveis para casos nos dados usados para construir uma árvore e para os casos na amostra OOB. Para obter previsões para a amostra OOB, cada uma é passada para baixo na árvore atual e as regras para a árvore são seguidas até que chegue ao nó do terminal. Isso produz as previsões OOB para essa árvore específica.
Esse processo é repetido várias vezes, cada árvore treinada em uma nova amostra de autoinicialização a partir dos dados de treinamento e previsões para as novas amostras OOB derivadas.
À medida que o número de árvores cresce, qualquer uma das amostras estará nas amostras OOB mais de uma vez, portanto, a "média" das previsões sobre as N árvores em que uma amostra está no OOB será usada como previsão OOB para cada amostra de treinamento para trees 1, ..., N. Por "média", usamos a média das previsões para uma resposta contínua, ou o voto da maioria pode ser usado para uma resposta categórica (o voto da maioria é a classe com mais votos no conjunto de árvores 1, ..., N).
Por exemplo, suponha que tivéssemos as seguintes previsões OOB para 10 amostras em um conjunto de treinamento em 10 árvores
set.seed(123)
oob.p <- matrix(rpois(100, lambda = 4), ncol = 10)
colnames(oob.p) <- paste0("tree", seq_len(ncol(oob.p)))
rownames(oob.p) <- paste0("samp", seq_len(nrow(oob.p)))
oob.p[sample(length(oob.p), 50)] <- NA
oob.p
> oob.p
tree1 tree2 tree3 tree4 tree5 tree6 tree7 tree8 tree9 tree10
samp1 NA NA 7 8 2 1 NA 5 3 2
samp2 6 NA 5 7 3 NA NA NA NA NA
samp3 3 NA 5 NA NA NA 3 5 NA NA
samp4 6 NA 10 6 NA NA 3 NA 6 NA
samp5 NA 2 NA NA 2 NA 6 4 NA NA
samp6 NA 7 NA 4 NA 2 4 2 NA NA
samp7 NA NA NA 5 NA NA NA 3 9 5
samp8 7 1 4 NA NA 5 6 NA 7 NA
samp9 4 NA NA 3 NA 7 6 3 NA NA
samp10 4 8 2 2 NA NA 4 NA NA 4
Onde NA
significa que a amostra estava nos dados de treinamento para essa árvore (em outras palavras, não estava na amostra OOB).
A média dos não NA
valores para cada linha fornece a previsão OOB para cada amostra, para toda a floresta
> rowMeans(oob.p, na.rm = TRUE)
samp1 samp2 samp3 samp4 samp5 samp6 samp7 samp8 samp9 samp10
4.00 5.25 4.00 6.20 3.50 3.80 5.50 5.00 4.60 4.00
À medida que cada árvore é adicionada à floresta, podemos calcular o erro OOB até incluir essa árvore. Por exemplo, abaixo estão as médias cumulativas para cada amostra:
FUN <- function(x) {
na <- is.na(x)
cs <- cumsum(x[!na]) / seq_len(sum(!na))
x[!na] <- cs
x
}
t(apply(oob.p, 1, FUN))
> print(t(apply(oob.p, 1, FUN)), digits = 3)
tree1 tree2 tree3 tree4 tree5 tree6 tree7 tree8 tree9 tree10
samp1 NA NA 7.00 7.50 5.67 4.50 NA 4.6 4.33 4.0
samp2 6 NA 5.50 6.00 5.25 NA NA NA NA NA
samp3 3 NA 4.00 NA NA NA 3.67 4.0 NA NA
samp4 6 NA 8.00 7.33 NA NA 6.25 NA 6.20 NA
samp5 NA 2 NA NA 2.00 NA 3.33 3.5 NA NA
samp6 NA 7 NA 5.50 NA 4.33 4.25 3.8 NA NA
samp7 NA NA NA 5.00 NA NA NA 4.0 5.67 5.5
samp8 7 4 4.00 NA NA 4.25 4.60 NA 5.00 NA
samp9 4 NA NA 3.50 NA 4.67 5.00 4.6 NA NA
samp10 4 6 4.67 4.00 NA NA 4.00 NA NA 4.0
Dessa maneira, vemos como a previsão é acumulada sobre as N árvores da floresta até uma determinada iteração. Se você ler nas linhas, o lado direito mais à direitaNA
valor é o que eu mostro acima para a previsão do OOB. É assim que os traços do desempenho do OOB podem ser feitos - um RMSEP pode ser calculado para as amostras de OOB com base nas previsões de OOB acumuladas cumulativamente sobre as N árvores.
Observe que o código R mostrado não é obtido dos internos do código randomForest no randomForest pacote para R - acabei de um código simples para que você possa acompanhar o que está acontecendo quando as previsões de cada árvore são determinadas.
É porque cada árvore é construída a partir de uma amostra de bootstrap e que há um grande número de árvores em uma floresta aleatória, de modo que cada observação do conjunto de treinamento esteja na amostra OOB para uma ou mais árvores, que as previsões OOB podem ser fornecidas para todas as amostras nos dados de treinamento.
Eu encobri questões como dados ausentes para alguns casos de OOB, etc., mas essas questões também pertencem a uma única árvore de regressão ou classificação. Observe também que cada árvore em uma floresta usa apenas mtry
variáveis selecionadas aleatoriamente.
"To get predictions for the OOB sample, each one is passed down the current tree and the rules for the tree followed until it arrives in a terminal node"
, você tem uma explicação simples do querules for the tree
são? E entendosample
como uma linha corretamente se entender que as amostras sãogroups
de observações nas quais as árvores dividem os dados?http://www.ime.unicamp.br/~ra109078/PED/Data%20Minig%20with%20R/Data%20Mining%20with%20R.pdf
. Na página 115-116, os autores usam a RF para escolhervariable importance
indicadores técnicos.