Os componentes PCA dos dados gaussianos multivariados são estatisticamente independentes?

16

Os componentes do PCA (na análise de componentes principais) são estatisticamente independentes se nossos dados são multivariados normalmente distribuídos? Se sim, como isso pode ser demonstrado / comprovado?

Pergunto porque vi este post , onde a resposta principal diz:

O PCA não faz uma suposição explícita de Gaussianity. Ele encontra os vetores próprios que maximizam a variação explicada nos dados. A ortogonalidade dos componentes principais significa que ele encontra os componentes mais não correlacionados para explicar o máximo possível de variação nos dados. Para distribuições gaussianas multivariadas, a correlação zero entre componentes implica independência, o que não é verdadeiro para a maioria das distribuições.

A resposta é declarada sem uma prova e parece implicar que o PCA produz componentes independentes se os dados forem multivariados normais.

Especificamente, digamos que nossos dados sejam exemplos de:

xN(μ,Σ)

colocamos amostras de em linhas da nossa matriz de amostras , de modo que é . A computação do SVD de (depois da centralização) produzx X X n × m XnxXXn×mX

X=USVT

Podemos dizer que as colunas de são estatisticamente independentes, e também as linhas de ? Isso é verdade em geral, apenas para ou não é verdade?V T xN ( μ , Σ )UVTxN(μ,Σ)

bill_e
fonte
1
stats.stackexchange.com/q/110508/3277 é uma pergunta semelhante.
ttnphns
1
Não vejo como os PCs poderiam ser considerados "estatisticamente independentes" em mais de uma dimensão. Afinal, por definição, cada um é ortogonal a todos os outros; essa dependência funcional cria uma dependência estatística muito forte.
whuber
1
@amoeba Espero ter sido sempre claro e fiel à pergunta, que considero claramente clara e inequívoca: como os dados são aleatórios, todas as entradas em . Apliquei a definição de independência estatística a eles. Isso é tudo. Seu problema parece ser que você está usando a palavra "não correlacionada" em dois sentidos muito diferentes, sem perceber: em virtude de como as colunas de são construídas, elas são geometricamente ortogonais como vetores em , mas eles não são de forma alguma vetores aleatórios independentes! U U R nXUURn
whuber
1
@amoeba Você está certo - a simulação mostra de maneira convincente que a correlação pode ser (fortemente) diferente de zero. No entanto, não estou contestando que "os componentes do PCA não estejam correlacionados" no sentido de "correlação" = "ortogonal", nem estou dizendo que qualquer livro em particular esteja incorreto. Minha preocupação é que tal afirmação, entendida adequadamente, seja tão irrelevante para a pergunta que tudo o que ela pode fazer (e fez) é semear uma extensa confusão no contexto atual.
whuber
1
@whuber, tenho certeza que você estava ansioso por mais uma edição da minha resposta! Aqui está. Reconheço explicitamente seus pontos de vista sobre dependência e afirmo que as colunas de são assintoticamente independentes, como meu ponto principal. Aqui "assintoticamente" refere-se ao número de observações (linhas). Espero muito que possamos concordar com isso! Também argumento que para qualquer razoável , como , a dependência entre colunas é "praticamente irrelevante". Acho que esse é um argumento mais controverso, mas tento torná-lo razoavelmente preciso na minha resposta. n n n = 100Unnn=100
Ameba diz Restabelecer Monica

Respostas:

23

Vou começar com uma demonstração intuitiva.

Gerei observações (a) de uma distribuição 2D fortemente não-Gaussiana e (b) de uma distribuição Gaussiana 2D. Nos dois casos, centralizei os dados e realizei a decomposição do valor singular X = U S V . Então, para cada caso, fiz um gráfico de dispersão das duas primeiras colunas de U , uma contra a outra. Note que é normalmente colunas de U S que são chamados "componentes principais" (PCs); colunas de U são PCs dimensionados para ter norma de unidade; Ainda, nesta resposta que eu estou focalizando em colunas de U . Aqui estão os gráficos de dispersão:n=100X=USVUUSUU

PCA de dados gaussianos e não gaussianos

Eu acho que declarações como "componentes PCA não são correlacionados" ou "componentes PCA são dependentes / independentes" geralmente são feitas sobre uma matriz de amostra específica e se referem às correlações / dependências nas linhas (consulte, por exemplo, a resposta de @ ttnphns aqui ). O PCA produz uma matriz de dados transformada U , em que linhas são observações e colunas são variáveis ​​de PC. Ou seja, podemos ver U como uma amostra e perguntar qual é a correlação da amostra entre as variáveis ​​do PC. Esta matriz de correlação de amostra é obviamente dada por UU = IXUUUU=I, o que significa que as correlações da amostra entre as variáveis ​​do PC são zero. É isso que as pessoas querem dizer quando dizem que "o PCA diagonaliza a matriz de covariância" etc.

Conclusão 1: nas coordenadas do PCA, qualquer dado tem correlação zero.

Isso vale para os dois gráficos de dispersão acima. No entanto, é imediatamente óbvio que as duas variáveis PC e y no (non-Gaussian) scatterplot esquerda não são independentes; mesmo tendo correlação zero, eles são fortemente dependentes e de fato relacionados por a y a ( x - b ) 2 . E, de fato, é sabido que não correlacionado não significa independente .xyya(xb)2

Pelo contrário, as duas variáveis PC e y à direita (Gaussian) scatterplot parecem ser "praticamente independente". Computar informações mútuas entre elas (que é uma medida de dependência estatística: variáveis ​​independentes têm zero informações mútuas) por qualquer algoritmo padrão produzirá um valor muito próximo de zero. Não será exatamente zero, porque nunca é exatamente zero para qualquer tamanho de amostra finito (a menos que ajustado); além disso, existem vários métodos para calcular informações mútuas de duas amostras, fornecendo respostas ligeiramente diferentes. Mas podemos esperar que qualquer método produza uma estimativa de informações mútuas que seja muito próxima de zero.xy

Conclusão 2: nas coordenadas do PCA, os dados gaussianos são "praticamente independentes", o que significa que as estimativas padrão de dependência serão em torno de zero.

A questão, no entanto, é mais complicada, como mostra a longa cadeia de comentários. Com efeito, @whuber justamente salienta que as variáveis PCA e y (colunas de L ) deve ser estatisticamente dependente: as colunas têm de ter um comprimento de unidade e tem que ser ortogonais, e isto introduz uma dependência. Por exemplo, se algum valor na primeira coluna for igual a 1 , o valor correspondente na segunda coluna deverá ser 0 .xyU10

Isso é verdade, mas é praticamente relevante apenas para muito pequeno , como, por exemplo, n = 3 (com n = 2 após a centralização, existe apenas um PC). Para qualquer tamanho de amostra razoável, como n = 100 mostrado na minha figura acima, o efeito da dependência será insignificante; colunas de U são projeções (em escala) de dados gaussianos, portanto também são gaussianas, o que torna praticamente impossível que um valor esteja próximo de 1 (isso exigiria que todos os outros elementos n - 1 estivessem próximos de 0 , o que dificilmente é distribuição gaussiana).nn=3n=2n=100U1n10

Conclusão 3: estritamente falando, para qualquer finito , os dados Gaussianos nas coordenadas do PCA são dependentes; no entanto, essa dependência é praticamente irrelevante para qualquer n 1 .nn1

Podemos fazer isso preciso considerando o que acontece no limite de . No limite do tamanho infinito da amostra, a matriz de covariância da amostra é igual à matriz de covariância da população Σ . Portanto, se o vetor de dados X for amostrado de XN ( 0 , Σ ) , as variáveis ​​do PC serão (onde e são autovalores e autovetores de ) enΣXXN(0,Σ)ΛVΣY ~N(0,I/(n-1))Y=Λ1/2VX/(n1)ΛVΣYN(0,I/(n1)). Ou seja, as variáveis ​​de PC vêm de um gaussiano multivariado com covariância diagonal. Mas qualquer gaussiano multivariado com matriz de covariância diagonal se decompõe em um produto de gaussianos univariados, e esta é a definição de independência estatística :

N(0,diag(σi2))=1(2π)k/2det(diag(σi2))1/2exp[xdiag(σi2)x/2]=1(2π)k/2(i=1kσi2)1/2exp[i=1kσi2xi2/2]=1(2π)1/2σiexp[σi2xi2/2]=N(0,σi2).

Conclusão 4: as variáveis ​​PC assintoticamente ( ) dos dados gaussianos são estatisticamente independentes como variáveis ​​aleatórias, e as informações mútuas da amostra fornecerão o valor da população zero.n

Devo observar que é possível entender essa questão de maneira diferente (veja os comentários de @whuber): considerar toda a matriz uma variável aleatória (obtida da matriz aleatória através de uma operação específica) e perguntar se existem duas elementos específicos e a partir de duas colunas diferentes são estatisticamente independentes entre diferente de chama . Exploramos essa questão neste tópico posterior .UXUijUklX


Aqui estão as quatro conclusões provisórias acima:

  • Nas coordenadas do PCA, qualquer dado tem correlação zero.
  • Nas coordenadas do PCA, os dados gaussianos são "praticamente independentes", o que significa que as estimativas padrão de dependência serão em torno de zero.
  • nn1
  • n
ameba diz Restabelecer Monica
fonte
Você escreve "No entanto, se os dados são gaussianos multivariados, eles são realmente independentes". 'Eles' são os principais componentes e seus coeficientes? O que você quer dizer com PCA diagonaliza a matriz de covariância? Obrigado pela sua resposta!
bill_e
Svocê
Legal, obrigado! A combinação de sua resposta e esse comentário ajuda a esclarecer bastante as coisas para mim. Posso editar o seu comentário na sua resposta?
bill_e
Eu ampliei a resposta incorporando o comentário; veja se você está feliz com isso agora.
Ameba diz Reinstate Monica
2
Discussão interessante! Quando fiz a pergunta, meu pensamento sobre dependência estatística era "se você conhece PC1, é possível inferir PC2? Etc." Examinarei mais os testes de independência baseados em informações mútuas agora.
bill_e