Análise de cluster em R: determine o número ideal de clusters

428

Sendo um novato em R, não sei muito bem como escolher o melhor número de clusters para fazer uma análise k-means. Após plotar um subconjunto dos dados abaixo, quantos clusters serão apropriados? Como posso executar a análise de dendro de cluster?

n = 1000
kk = 10    
x1 = runif(kk)
y1 = runif(kk)
z1 = runif(kk)    
x4 = sample(x1,length(x1))
y4 = sample(y1,length(y1)) 
randObs <- function()
{
  ix = sample( 1:length(x4), 1 )
  iy = sample( 1:length(y4), 1 )
  rx = rnorm( 1, x4[ix], runif(1)/8 )
  ry = rnorm( 1, y4[ix], runif(1)/8 )
  return( c(rx,ry) )
}  
x = c()
y = c()
for ( k in 1:n )
{
  rPair  =  randObs()
  x  =  c( x, rPair[1] )
  y  =  c( y, rPair[2] )
}
z <- rnorm(n)
d <- data.frame( x, y, z )
user2153893
fonte
4
Se você não estiver completamente conectado ao kmeans, tente o algoritmo de cluster DBSCAN, disponível no fpcpacote. É verdade, você precisa definir dois parâmetros ... mas eu descobri que fpc::dbscanele faz um bom trabalho ao determinar automaticamente um bom número de clusters. Além disso, ele pode gerar um único cluster, se é o que os dados dizem - alguns dos métodos das excelentes respostas de @ Ben não ajudarão a determinar se k = 1 é realmente o melhor.
Stephan Kolassa
Veja também stats.stackexchange.com/q/11691/478
Richie Cotton

Respostas:

1020

Se sua pergunta for how can I determine how many clusters are appropriate for a kmeans analysis of my data?, então aqui estão algumas opções. O artigo da Wikipedia sobre como determinar o número de clusters faz uma boa revisão de alguns desses métodos.

Primeiro, alguns dados reproduzíveis (os dados no Q não são claros para mim):

n = 100
g = 6 
set.seed(g)
d <- data.frame(x = unlist(lapply(1:g, function(i) rnorm(n/g, runif(1)*i^2))), 
                y = unlist(lapply(1:g, function(i) rnorm(n/g, runif(1)*i^2))))
plot(d)

insira a descrição da imagem aqui

Um . Procure uma dobra ou cotovelo na plotagem de seixos da soma do erro ao quadrado (SSE). Consulte http://www.statmethods.net/advstats/cluster.html & http://www.mattpeeples.net/kmeans.html para obter mais informações. A localização do cotovelo no gráfico resultante sugere um número adequado de grupos para os kmeans:

mydata <- d
wss <- (nrow(mydata)-1)*sum(apply(mydata,2,var))
  for (i in 2:15) wss[i] <- sum(kmeans(mydata,
                                       centers=i)$withinss)
plot(1:15, wss, type="b", xlab="Number of Clusters",
     ylab="Within groups sum of squares")

Podemos concluir que 4 clusters seriam indicados por este método: insira a descrição da imagem aqui

Dois . Você pode fazer o particionamento em torno do medoids para estimar o número de clusters usando a pamkfunção no pacote fpc.

library(fpc)
pamk.best <- pamk(d)
cat("number of clusters estimated by optimum average silhouette width:", pamk.best$nc, "\n")
plot(pam(d, pamk.best$nc))

insira a descrição da imagem aqui insira a descrição da imagem aqui

# we could also do:
library(fpc)
asw <- numeric(20)
for (k in 2:20)
  asw[[k]] <- pam(d, k) $ silinfo $ avg.width
k.best <- which.max(asw)
cat("silhouette-optimal number of clusters:", k.best, "\n")
# still 4

Três . Critério de Calinsky: Outra abordagem para diagnosticar quantos clusters se adequam aos dados. Neste caso, tentamos 1 a 10 grupos.

require(vegan)
fit <- cascadeKM(scale(d, center = TRUE,  scale = TRUE), 1, 10, iter = 1000)
plot(fit, sortg = TRUE, grpmts.plot = TRUE)
calinski.best <- as.numeric(which.max(fit$results[2,]))
cat("Calinski criterion optimal number of clusters:", calinski.best, "\n")
# 5 clusters!

insira a descrição da imagem aqui

Quatro . Determinar o modelo ideal e o número de clusters, de acordo com o Critério de Informação Bayesiano para maximização de expectativas, inicializado por cluster hierárquico para modelos de mistura gaussiana parametrizados

# See http://www.jstatsoft.org/v18/i06/paper
# http://www.stat.washington.edu/research/reports/2006/tr504.pdf
#
library(mclust)
# Run the function to see how many clusters
# it finds to be optimal, set it to search for
# at least 1 model and up 20.
d_clust <- Mclust(as.matrix(d), G=1:20)
m.best <- dim(d_clust$z)[2]
cat("model-based optimal number of clusters:", m.best, "\n")
# 4 clusters
plot(d_clust)

insira a descrição da imagem aqui insira a descrição da imagem aqui insira a descrição da imagem aqui

Cinco . Cluster de propagação de afinidade (AP), consulte http://dx.doi.org/10.1126/science.1136800

library(apcluster)
d.apclus <- apcluster(negDistMat(r=2), d)
cat("affinity propogation optimal number of clusters:", length(d.apclus@clusters), "\n")
# 4
heatmap(d.apclus)
plot(d.apclus, d)

insira a descrição da imagem aqui insira a descrição da imagem aqui

Seis . Estatística de lacunas na estimativa do número de clusters. Veja também algum código para obter uma boa saída gráfica . Tentando 2-10 clusters aqui:

library(cluster)
clusGap(d, kmeans, 10, B = 100, verbose = interactive())

Clustering k = 1,2,..., K.max (= 10): .. done
Bootstrapping, b = 1,2,..., B (= 100)  [one "." per sample]:
.................................................. 50 
.................................................. 100 
Clustering Gap statistic ["clusGap"].
B=100 simulated reference sets, k = 1..10
 --> Number of clusters (method 'firstSEmax', SE.factor=1): 4
          logW   E.logW        gap     SE.sim
 [1,] 5.991701 5.970454 -0.0212471 0.04388506
 [2,] 5.152666 5.367256  0.2145907 0.04057451
 [3,] 4.557779 5.069601  0.5118225 0.03215540
 [4,] 3.928959 4.880453  0.9514943 0.04630399
 [5,] 3.789319 4.766903  0.9775842 0.04826191
 [6,] 3.747539 4.670100  0.9225607 0.03898850
 [7,] 3.582373 4.590136  1.0077628 0.04892236
 [8,] 3.528791 4.509247  0.9804556 0.04701930
 [9,] 3.442481 4.433200  0.9907197 0.04935647
[10,] 3.445291 4.369232  0.9239414 0.05055486

Aqui está o resultado da implementação de Edwin Chen da estatística de gap: insira a descrição da imagem aqui

Sete . Você também pode achar útil explorar seus dados com clustergrams para visualizar a atribuição de cluster, consulte http://www.r-statistics.com/2010/06/clustergram-visualization-and-diagnostics-for-cluster-analysis-r- código / para mais detalhes.

Oito . O pacote NbClust fornece 30 índices para determinar o número de clusters em um conjunto de dados.

library(NbClust)
nb <- NbClust(d, diss=NULL, distance = "euclidean",
        method = "kmeans", min.nc=2, max.nc=15, 
        index = "alllong", alphaBeale = 0.1)
hist(nb$Best.nc[1,], breaks = max(na.omit(nb$Best.nc[1,])))
# Looks like 3 is the most frequently determined number of clusters
# and curiously, four clusters is not in the output at all!

insira a descrição da imagem aqui

Se sua pergunta for how can I produce a dendrogram to visualize the results of my cluster analysis, você deve começar com estes: http://www.statmethods.net/advstats/cluster.html http://www.r-tutor.com/gpu-computing/clustering/hierarchical-cluster-analysis http://gastonsanchez.wordpress.com/2012/10/03/7-ways-to-plot-dendrograms-in-r/ E veja aqui os métodos mais exóticos: http://cran.r-project.org/ web / views / Cluster.html

Aqui estão alguns exemplos:

d_dist <- dist(as.matrix(d))   # find distance matrix 
plot(hclust(d_dist))           # apply hirarchical clustering and plot

insira a descrição da imagem aqui

# a Bayesian clustering method, good for high-dimension data, more details:
# http://vahid.probstat.ca/paper/2012-bclust.pdf
install.packages("bclust")
library(bclust)
x <- as.matrix(d)
d.bclus <- bclust(x, transformed.par = c(0, -50, log(16), 0, 0, 0))
viplot(imp(d.bclus)$var); plot(d.bclus); ditplot(d.bclus)
dptplot(d.bclus, scale = 20, horizbar.plot = TRUE,varimp = imp(d.bclus)$var, horizbar.distance = 0, dendrogram.lwd = 2)
# I just include the dendrogram here

insira a descrição da imagem aqui

Também para dados de alta dimensão, está a pvclustbiblioteca que calcula valores de p para cluster hierárquico por meio de reamostragem de inicialização em escala múltipla. Aqui está o exemplo da documentação (não funcionará em dados de baixa dimensão como no meu exemplo):

library(pvclust)
library(MASS)
data(Boston)
boston.pv <- pvclust(Boston)
plot(boston.pv)

insira a descrição da imagem aqui

Isso ajuda?

Ben
fonte
Para o último dendograma (Cluster Dendograma com AU / BP) às vezes é conveniente para desenhar retângulos em torno dos grupos com relativamente altos valores de p: pvrect (ajuste, alfa = 0,95)
Igor Elbert
Era exatamente isso que eu estava procurando. Eu sou novo no R e levaria muito tempo para encontrar isso. Obrigado @Ben por responder com esses detalhes. Você pode, por favor, me orientar sobre onde posso encontrar a lógica por trás de cada um desses métodos, como qual métrica ou critério eles estão usando para determinar o número ideal de clusters, ou como cada um deles é diferente um do outro. Meu chefe quer que eu diga isso, para que possamos decidir qual dos métodos usar. Desde já, obrigado.
nasia jaffri
1
@Aleksandr Blekh Você também pode tentar transformar qualquer método gráfico no analítico. Por exemplo, eu uso o método "cotovelo" (mencionado pela primeira vez na resposta), mas tento encontrá-lo analiticamente. O ponto do cotovelo pode ser o ponto com curvatura máxima. Para dados discretos, é o ponto com diferença central máxima de segunda ordem (analógico à derivada máxima de segunda ordem para dados contínuos). Consulte stackoverflow.com/a/4473065/1075993 e stackoverflow.com/q/2018178/1075993 . Eu acho que outros métodos gráficos também podem ser convertidos em analíticos.
Andrey Sapegin
1
@AndreySapegin: Eu poderia, mas: 1) francamente, não considero uma solução elegante (IMHO, na maioria dos casos, os métodos visuais devem permanecer visuais, enquanto os analíticos devem permanecer analíticos); 2) Eu descobri a solução analítica para isso, usando um ou vários Rpacotes (está no meu GitHub - você pode dar uma olhada); 3) minha solução parece funcionar bem o suficiente, além disso, já faz um tempo e eu já finalizei meu software de dissertação, relatório de dissertação (tese) e atualmente estou me preparando para a defesa :-). Independentemente disso, eu aprecio muito o seu comentário e links. Muito bem sucedida!
Aleksandr Blekh 25/03
1
2,2 milhões de linhas estão no meu conjunto de dados de cluster atual. Nenhum desses pacotes R funciona, espero. Eles apenas ligam o meu computador e depois cai da minha experiência. No entanto, parece que o autor conhece o material para pequenos dados e para o caso geral, sem levar em conta a capacidade do software. Nenhum ponto deduzido devido ao bom trabalho óbvio do autor. Vocês sabem que o velho R é horrível em 2,2 milhões de linhas - tente você mesmo se não confiar em mim. H2O ajuda, mas é limitado a um pequeno jardim murado de felicidade.
Geoffrey Anderson
21

É difícil adicionar uma resposta muito elaborada. Embora eu deva mencionar identifyaqui, principalmente porque o @Ben mostra muitos exemplos de dendrogramas.

d_dist <- dist(as.matrix(d))   # find distance matrix 
plot(hclust(d_dist)) 
clusters <- identify(hclust(d_dist))

identifypermite escolher interativamente clusters de um dendograma e armazenar suas opções em uma lista. Pressione Esc para sair do modo interativo e retornar ao console R. Observe que a lista contém os índices, não os nomes de usuário (ao contrário de cutree).

Matt Bannert
fonte
10

Para determinar o k-cluster ideal nos métodos de clustering. Eu geralmente uso o Elbowmétodo acompanhar pelo processamento paralelo para evitar o consumo de tempo. Este código pode ser amostrado da seguinte maneira:

Método do cotovelo

elbow.k <- function(mydata){
dist.obj <- dist(mydata)
hclust.obj <- hclust(dist.obj)
css.obj <- css.hclust(dist.obj,hclust.obj)
elbow.obj <- elbow.batch(css.obj)
k <- elbow.obj$k
return(k)
}

Correndo o cotovelo paralelo

no_cores <- detectCores()
    cl<-makeCluster(no_cores)
    clusterEvalQ(cl, library(GMD))
    clusterExport(cl, list("data.clustering", "data.convert", "elbow.k", "clustering.kmeans"))
 start.time <- Sys.time()
 elbow.k.handle(data.clustering))
 k.clusters <- parSapply(cl, 1, function(x) elbow.k(data.clustering))
    end.time <- Sys.time()
    cat('Time to find k using Elbow method is',(end.time - start.time),'seconds with k value:', k.clusters)

Isso funciona bem.

VanThaoNguyen
fonte
2
As funções cotovelo e css são provenientes do pacote GMD: cran.r-project.org/web/packages/GMD/GMD.pdf
Rohan
6

Esplêndida resposta de Ben. No entanto, estou surpreso que o método de propagação de afinidade (AP) tenha sido sugerido aqui apenas para encontrar o número de cluster para o método k-means, onde, em geral, o AP faz um trabalho melhor agrupando os dados. Consulte o artigo científico que apoia este método na Science aqui:

Frey, Brendan J. e Delbert Dueck. "Agrupando passando mensagens entre pontos de dados." Science 315,5814 (2007): 972-976.

Portanto, se você não é direcionado para o k-means, sugiro usar o AP diretamente, o que agrupará os dados sem exigir o conhecimento do número de clusters:

library(apcluster)
apclus = apcluster(negDistMat(r=2), data)
show(apclus)

Se distâncias euclidianas negativas não forem apropriadas, você poderá usar outras medidas de similaridade fornecidas no mesmo pacote. Por exemplo, para similaridades baseadas nas correlações de Spearman, é disso que você precisa:

sim = corSimMat(data, method="spearman")
apclus = apcluster(s=sim)

Observe que essas funções para semelhanças no pacote AP são fornecidas apenas para simplificar. De fato, a função apcluster () em R aceitará qualquer matriz de correlações. O mesmo antes com corSimMat () pode ser feito com isso:

sim = cor(data, method="spearman")

ou

sim = cor(t(data), method="spearman")

dependendo do que você deseja agrupar em sua matriz (linhas ou colunas).

zsram
fonte
6

Esses métodos são ótimos, mas ao tentar encontrar k para conjuntos de dados muito maiores, eles podem ser muito lentos em R.

Uma boa solução que encontrei é o pacote "RWeka", que possui uma implementação eficiente do algoritmo X-Means - uma versão estendida do K-Means que se adapta melhor e determina o número ideal de clusters para você.

Primeiro, verifique se o Weka está instalado no seu sistema e se o XMeans está instalado através da ferramenta de gerenciamento de pacotes do Weka.

library(RWeka)

# Print a list of available options for the X-Means algorithm
WOW("XMeans")

# Create a Weka_control object which will specify our parameters
weka_ctrl <- Weka_control(
    I = 1000,                          # max no. of overall iterations
    M = 1000,                          # max no. of iterations in the kMeans loop
    L = 20,                            # min no. of clusters
    H = 150,                           # max no. of clusters
    D = "weka.core.EuclideanDistance", # distance metric Euclidean
    C = 0.4,                           # cutoff factor ???
    S = 12                             # random number seed (for reproducibility)
)

# Run the algorithm on your data, d
x_means <- XMeans(d, control = weka_ctrl)

# Assign cluster IDs to original data set
d$xmeans.cluster <- x_means$class_ids
RDRR
fonte
6

Uma solução simples é a biblioteca factoextra . Você pode alterar o método de armazenamento em cluster e o método para calcular o melhor número de grupos. Por exemplo, se você deseja saber o melhor número de clusters para um k- significa:

Data: mtcars

library(factoextra)   
fviz_nbclust(mtcars, kmeans, method = "wss") +
      geom_vline(xintercept = 3, linetype = 2)+
      labs(subtitle = "Elbow method")

Finalmente, obtemos um gráfico como:

insira a descrição da imagem aqui

Cro-Magnon
fonte
2

As respostas são ótimas. Se você quiser dar uma chance a outro método de armazenamento em cluster, poderá usar o armazenamento em cluster hierárquico e ver como os dados estão sendo divididos.

> set.seed(2)
> x=matrix(rnorm(50*2), ncol=2)
> hc.complete = hclust(dist(x), method="complete")
> plot(hc.complete)

insira a descrição da imagem aqui

Dependendo de quantas classes você precisar, você pode cortar seu dendrograma como;

> cutree(hc.complete,k = 2)
 [1] 1 1 1 2 1 1 1 1 1 1 1 1 1 2 1 2 1 1 1 1 1 2 1 1 1
[26] 2 1 1 1 1 1 1 1 1 1 1 2 2 1 1 1 2 1 1 1 1 1 1 1 2

Se você digitar ?cutree, verá as definições. Se o seu conjunto de dados tiver três classes, será simples cutree(hc.complete, k = 3). O equivalente para cutree(hc.complete,k = 2)é cutree(hc.complete,h = 4.9).

boyaronur
fonte
Eu prefiro Wards ao invés de completo.
31417 Chris