De acordo com meu entendimento, no PCA baseado em correlações, obtemos cargas de fator (= componente principal neste caso) que nada mais são do que correlações entre variáveis e fatores. Agora, quando preciso gerar pontuações fatoriais no SPSS, posso obter diretamente pontuações fatoriais de cada respondente para cada fator. Também observei que, se eu multiplicar a " matriz de coeficientes de pontuação dos componentes " (produzida pelo SPSS) por variáveis originais padronizadas, obtive as mesmas pontuações dos fatores obtidas no SPSS.
Alguém pode me ajudar a entender como é calculada a "matriz do coeficiente de pontuação dos componentes" ou "matriz do coeficiente de pontuação dos fatores" - com a qual eu posso calcular as pontuações dos fatores ou dos componentes? Como os diferentes métodos de pontuação dos fatores de computação diferem nessa matriz?
fonte
Respostas:
Métodos de cálculo das pontuações de fator / componente
Após uma série de comentários, decidi finalmente emitir uma resposta (com base nos comentários e muito mais). Trata-se de computar pontuações de componentes no PCA e pontuações fatoriais na análise fatorial.
Factor de contagens / componentes são dadas por F = X B , em que X são as variáveis analisadas ( centradas se a análise de APC / factor foi baseado em covariâncias ou z-padronizados se baseou-se correlações). B é a matriz do coeficiente de pontuação do fator / componente (ou peso) . Como esses pesos podem ser estimados?F^= X B X B
Notação
-matriz de correlações variáveis (item) ou covariâncias, conforme o fator / PCA analisado.R
p x p
-matriz de cargas fator / componente. Podem ser carregamentos após a extração (geralmente também denominados A ), após os quais as latentes são ortogonais ou praticamente assim, ou carregamentos após a rotação, ortogonais ou oblíquos. Se a rotação foroblíqua, deve ser umacargapadrão.P UMA
p x m
-matriz de correlações entre os fatores / componentes após a rotação oblíqua (das cargas). Se nenhuma rotação ou rotação ortogonal foi realizada, esta é amatriz deidentidade.C
m x m
-matriz reduzida de reproduzidas correlações / covariâncias,=PCP"(=PP'para soluções ortogonais), que contém communalities na sua diagonal.R^ = P C P′ = P P′
p x p
-matriz diagonal de singularidades (singularidade + comunalidade = elemento diagonal de R ). Estou usando "2" como subscrito aqui em vez de sobrescrito ( U 2 ) para facilitar a leitura em fórmulas.você2 R você2
p x p
-matriz completa de reproduzidas correlações / covariâncias, = R + L 2 .R∗ = R^+ U2
p x p
- pseudo-inverso de alguma matriz M ; se M é de classificação completa, M + = ( M ′ M ) - 1 M ′ .M+ M M M+= ( M′M )- 1M′
- para alguma matriz quadrada simétrica M o seu aumento para p o w e r equivale a uma recomposição automática de H K H ′ = M , elevando os valores próprios à potência e compondo: M p o w e r = H K p o w e r H ' .Mp o w e r M p o w e r H K H′= M Mp o w e r= H Kp o w e rH′
Método grosseiro de pontuação de fator / componente de computação
Essa abordagem popular / tradicional, às vezes chamada de Cattell, é simplesmente a média (ou a soma) de valores de itens carregados pelo mesmo fator. Matematicamente, isto equivale a definir pesos no cálculo da pontuação F = X B . Existem três versões principais da abordagem: 1) Use as cargas como estão; 2) Dicotomize-os (1 = carregado, 0 = não carregado); 3) Use cargas como elas são, mas cargas zero-off menores que alguns limites.B = P F^= X B
Geralmente, com essa abordagem, quando os itens estão na mesma unidade de escala, os valores são usados apenas brutos; embora, para não quebrar a lógica de fatorar, alguém usasse melhor o X ao entrar no fator - padronizado (= análise de correlações) ou centrado (= análise de covariâncias).X X
A principal desvantagem do método grosseiro de calcular as pontuações de fator / componente, na minha opinião, é que ele não leva em consideração as correlações entre os itens carregados. Se os itens carregados por um fator se correlacionam fortemente e um é carregado mais forte que o outro, o último pode ser razoavelmente considerado uma duplicata mais jovem e seu peso pode ser diminuído. Métodos refinados fazem isso, mas o método grosso não pode.
Obviamente, é fácil calcular pontuações grosseiras porque não é necessária inversão de matriz. A vantagem do método grosseiro (explicando por que ele ainda é amplamente utilizado, apesar da disponibilidade dos computadores) é que ele fornece pontuações mais estáveis de amostra para amostra quando a amostragem não é ideal (no sentido de representatividade e tamanho) ou dos itens para a análise não foi bem selecionada. Para citar um artigo, "O método da pontuação total pode ser mais desejável quando as escalas usadas para coletar os dados originais não são testadas e exploratórias, com pouca ou nenhuma evidência de confiabilidade ou validade". Além disso , não é necessário entender "fator" necessariamente como essência latente univariada, como exige o modelo de análise fatorial ( ver , ver) Você poderia, por exemplo, conceituar um fator como uma coleção de fenômenos - então, somar os valores dos itens é razoável.
Métodos refinados de pontuação de fator / componente de computação
Esses métodos são o que os pacotes analíticos de fator fazem. Eles estimam por vários métodos. Enquanto as cargas A ou P são os coeficientes de combinações lineares para prever variáveis por fatores / componentes, B são os coeficientes para calcular a pontuação dos fatores / componentes a partir das variáveis.B UMA P B
As pontuações computadas via são escalonadas: elas apresentam variações iguais ou próximas a 1 (padronizadas ou quase padronizadas) - não as variações reais dos fatores (que são iguais à soma das cargas quadradas da estrutura, consulte a Nota de rodapé 3 aqui ). Portanto, quando você precisar fornecer as pontuações dos fatores com a variação real do fator, multiplique as pontuações (padronizando-as para st.dev. 1) pela raiz quadrada dessa variação.B
Você pode preservar a partir da análise feita, para ser capaz de calcular pontuações para novas observações próximos de X . Além disso, B pode ser usado para ponderar itens que constituem uma escala de um questionário quando a escala é desenvolvida ou validada por análise fatorial. Os coeficientes (ao quadrado) de B podem ser interpretados como contribuições de itens para fatores. Os coeficientes podem ser padronizados como o coeficiente de regressão é padronizado β = b σ i t e mB X B B (ondeσfumctor=1) para comparar as contribuições de artigos com diferentes desvios.β= b σi t e mσfum c t o r σfum c t o r= 1
Veja um exemplo que mostra os cálculos feitos no PCA e no FA, incluindo o cálculo das pontuações fora da matriz do coeficiente de pontuação.
A explicação geométrica das cargas 's (como coordenadas perpendiculares) e dos coeficientes de pontuação b ' s (coordenadas inclinadas) nas configurações de PCA é apresentada nas duas primeiras imagens aqui .uma b
Agora para os métodos refinados.
Os métodos
Cálculo de no PCAB
Quando as cargas dos componentes são extraídas, mas não rotacionadas, , onde L é a matriz diagonal composta por valores próprios; essa fórmula equivale a simplesmente dividir cada coluna de A pelo respectivo valor próprio - a variação do componente.B = A L- 1 eu UMA
m
Equivalentemente, . Essa fórmula também vale para componentes (cargas) rotacionados, ortogonalmente (como varimax) ou obliquamente.B = ( P+)′
Alguns dos métodos usados na análise fatorial (veja abaixo), se aplicados no PCA, retornam o mesmo resultado.
As pontuações dos componentes calculadas têm variações 1 e são verdadeiros valores padronizados dos componentes .
O que na análise de dados estatísticos é chamado de matriz de coeficiente de componente principal e, se for calculado a partir de uma matriz de carga completa e de maneira alguma rotacionada, que na literatura de aprendizado de máquina é frequentemente rotulada a matriz de clareamento (baseada em PCA) , e os componentes principais padronizados são reconhecidos como dados "embranquecidos".B
p x p
Cálculo de na análise fatorial comumB
Ao contrário de dezenas de componentes, fator de pontuação são nunca mais exato ; são apenas aproximações aos valores verdadeiros desconhecidos dos fatores. Isso ocorre porque não conhecemos valores de comunalidade ou unicidade no nível de caso - uma vez que fatores, diferentemente dos componentes, são variáveis externas separadas das manifestas e têm distribuição própria e desconhecida para nós. Qual é a causa da indeterminação da pontuação do fator . Observe que o problema da indeterminação é logicamente independente da qualidade da solução fatorial: quanto um fator é verdadeiro (corresponde ao latente que gera dados na população) é outra questão que não a quantidade de resultados de um fator verdadeiro (estimativas precisas do fator extraído).F
Como as pontuações dos fatores são aproximações, existem métodos alternativos para calculá-las e competir.
A regressão ou o método de Thurstone ou Thompson para estimar as pontuações dos fatores é dado por , onde S = P C é a matriz de cargas estruturais (para soluções de fatores ortogonais, sabemos que A = P = S ) O método de fundamentação do regressão está na nota de rodapé 1 .B = R- 1P C = R- 1S S = P C A = P = S 1
Nota. Essa fórmula para também é utilizável no PCA: fornecerá no PCA o mesmo resultado que as fórmulas citadas na seção anterior.B
Em FA (não PCA), as pontuações dos fatores calculadas regressivamente parecerão não "padronizadas" - terão variações não 1, mas iguais às de regredir esses escores pelas variáveis. Esse valor pode ser interpretado como o grau de determinação de um fator (seus verdadeiros valores desconhecidos) por variáveis - o quadrado R da previsão do fator real por elas e o método de regressão o maximiza - a "validade" do cálculo pontuações. A figura2mostra a geometria. (Observe queSS r e g rSSr e gr( n - 1 ) 2 será igual à variação das pontuações para qualquer método refinado, mas somente para o método de regressão essa quantidade será igual à proporção de determinação de f verdadeiro. valores por f. pontuações.)SSr e gr( n - 1 )
Como uma variante do método de regressão, pode-se usar no lugar de R na fórmula. É justificado pelo fato de que, em uma boa análise fatorial, R e R ∗ são muito semelhantes. No entanto, quando não são, especialmente quando o número de fatores é menor que o número real da população, o método produz um forte viés nas pontuações. E você não deve usar esse método de "regressão R reproduzida" com o PCA.R∗ R R R∗
m
O método da PCA , também conhecido como abordagem variável de Horst (Mulaik) ou variável idealizada (Harman). Este é um método de regressão com R no lugar de R na sua fórmula. Pode-se mostrar facilmente que a fórmula reduz a B = ( P + ) ′ (e, portanto, sim, na verdade não precisamos conhecer C com ela). As pontuações dos fatores são calculadas como se fossem pontuações dos componentes.R^ R B = ( P+)′ C
[Rótulo "idealizado variável" vem do facto de que uma vez que de acordo com o factor ou componente modelo a porção previsto de variáveis é X = F P ' , segue- F = ( P + ) ' X , mas substituir X para o desconhecido (ideal) X , para estimar F como contagens F ; portanto, "idealizamos" o X. ]X^= F P′ F = ( P+)′X^ X X^ F F^ X
Observe que este método não está passando as pontuações do componente PCA para pontuações fatoriais, porque as cargas usadas não são cargas do PCA, mas análise fatorial '; somente que a abordagem de computação para pontuações espelha a do PCA.
O método de Bartlett . Aqui, . Esse método procura minimizar, para cada entrevistado, a variação de fatores únicos ("erro"). As variações das pontuações do fator comum resultantes não serão iguais e podem exceder 1.B′= ( P′você- 12P )- 1P′você- 12
p
O método Anderson-Rubin foi desenvolvido como uma modificação do anterior. . As variações das pontuações serão exatamente 1. Esse método, no entanto, é apenas para soluções de fatores ortogonais (para soluções oblíquas, produzirá pontuações ortogonais ainda).B′= ( P′você- 12R U- 12P )- 1 / 2P′você- 12
m
m
Método de Krijnen et al . Este método é uma generalização que acomoda os dois anteriores por uma única fórmula. Provavelmente não adiciona nenhum recurso novo ou importante, por isso não estou considerando.
Comparação entre os métodos refinados .
O método de regressão maximiza a correlação entre as pontuações dos fatores e os valores reais desconhecidos desse fator (ou seja, maximiza a validade estatística ), mas as pontuações são um tanto tendenciosas e correlacionam-se de maneira incorreta entre os fatores (por exemplo, correlacionam-se mesmo quando os fatores em uma solução são ortogonais). Essas são estimativas de mínimos quadrados.
O método da PCA também é de mínimos quadrados, mas com menos validade estatística. Eles são mais rápidos de calcular; Atualmente, eles não são usados na análise fatorial, devido aos computadores. (No PCA , esse método é nativo e ideal.)
Os escores de Anderson-Rubin / McDonald-Anderson-Rubin e Green são chamados de preservação de correlação porque são calculados para correlacionar com precisão com os escores de fatores de outros fatores. As correlações entre as pontuações dos fatores são iguais às correlações entre os fatores na solução (portanto, na solução ortogonal, por exemplo, as pontuações serão perfeitamente não correlacionadas). Mas as pontuações são um tanto tendenciosas e sua validade pode ser modesta.
Verifique também esta tabela:
[Uma observação para usuários do SPSS: Se você estiver executando o PCA (método de extração de "componentes principais"), mas solicitar pontuações de fator diferentes do método "Regressão", o programa desconsiderará a solicitação e calculará as pontuações de "Regressão" (que são exatas pontuações dos componentes).]
Referências
Grice, James W. Computação e avaliação de escores fatoriais // Psychological Methods 2001, vol. 6, n ° 4, 430-450.
DiStefano, Christine et al. Compreensão e uso de pontuações fatoriais // Avaliação prática, pesquisa e avaliação, Vol 14, no 20
dez Berge, Jos MFet al. Alguns novos resultados sobre métodos de previsão de pontuação de fatores de preservação de correlação // Álgebra Linear e suas Aplicações 289 (1999) 311-318.
Mulaik, Stanley A. Fundamentos da análise fatorial, 2ª edição, 2009
Harman, Harry H. Análise fatorial moderna, 3a edição, 1976
Neudecker, Heinz. Sobre a melhor previsão imparcial afim de pontuações de preservação de covariância // SORT 28 (1) janeiro-junho de 2004, 27-36
fonte
Para executar o PCA em meteorologia, os coeficientes de correlação são obtidos usando o coeficiente de correlação de Pearson (se as variáveis estiverem em unidades diferentes, pois permite padronizar os dados para que eles possam ser comparados diretamente sem discrepâncias devido às diferenças de tamanho / magnitude entre os dados, para que os coeficientes de correlação possam apenas comparar a extensão da variação em torno da média, para cada conjunto de dados e entre cada conjunto de dados, caso contrário, se todos os dados forem medidos usando a mesma unidade, é possível usar o método de covariância.
fonte