Melhores métodos de extração de fatores na análise fatorial

29

O SPSS oferece vários métodos de extração fatorial:

  1. Componentes principais (que não são análise de fatores)
  2. Mínimos quadrados não ponderados
  3. Mínimos quadrados generalizados
  4. Máxima verossimilhança
  5. Eixo principal
  6. Factoring alfa
  7. Factoring de imagem

Ignorando o primeiro método, que não é análise fatorial (mas análise de componentes principais, PCA), qual desses métodos é "o melhor"? Quais são as vantagens relativas dos diferentes métodos? E basicamente, como eu escolheria qual usar?

Pergunta adicional: deve-se obter resultados semelhantes em todos os 6 métodos?

Placidia
fonte
Hmm, meu primeiro impulso: não há uma entrada na Wikipedia sobre isso? Se não - certamente deveria existir um ...
Gottfried Helms
4
Sim, há um artigo da Wikipedia. Diz usar MLE se os dados são normais e PAF de outra maneira. Não diz muito sobre os méritos ou outras das outras opções. De qualquer forma, ficaria feliz em saber o que os membros deste site pensam sobre esse problema, com base em sua experiência prática.
Placidia

Respostas:

41

Para torná-lo curto. Os dois últimos métodos são muito especiais e diferentes dos números 2-5. Todos eles são chamados de análise fatorial comum e são realmente vistos como alternativas. Na maioria das vezes, eles dão resultados bastante semelhantes . Eles são "comuns" porque representam o modelo fatorial clássico , o modelo de fatores comuns + fatores únicos. É esse modelo que normalmente é usado na análise / validação de questionários.

O eixo principal (PAF) , também conhecido como fator principal com iterações, é o método mais antigo e talvez ainda bastante popular. É uma aplicação iterativa do PCA à matriz, onde as comunalidades ficam na diagonal no lugar de 1s ou de variações. Cada próxima iteração aprimora as comunidades ainda mais até convergirem. Ao fazer isso, o método que procura explicar a variação, não as correlações aos pares, acaba explicando as correlações. O método do eixo principal tem a vantagem de poder, como o PCA, analisar não apenas correlações, mas também covariâncias e outras1Medidas SSCP (sscp bruto, cossenos). Os três métodos restantes processam apenas correlações [no SPSS; covariâncias podem ser analisadas em algumas outras implementações]. Este método depende da qualidade das estimativas iniciais das comunidades (e é sua desvantagem). Geralmente, a correlação / covariância múltipla ao quadrado é usada como valor inicial, mas você pode preferir outras estimativas (incluindo as obtidas em pesquisas anteriores). Por favor, leia isto para mais informações. Se você quiser ver um exemplo de cálculos de fatoração de eixo principal, comentados e comparados com os cálculos de PCA, consulte aqui .

Mínimos quadrados ordinários ou não ponderados (ULS) é o algoritmo que visa diretamente minimizar os resíduos entre a matriz de correlação de entrada e a matriz de correlação reproduzida (pelos fatores) (enquanto os elementos diagonais como as somas de comunalidade e exclusividade têm como objetivo restaurar 1s) . Essa é a tarefa direta de FA . O método ULS pode trabalhar com uma matriz de correlações semidefinida singular e até não positiva, desde que o número de fatores seja menor que sua classificação - embora seja questionável se teoricamente a FA é apropriada então.2

Os mínimos quadrados generalizados ou ponderados (GLS) são uma modificação do anterior. Ao minimizar os resíduos, ele pesa os coeficientes de correlação de maneira diferenciada: as correlações entre variáveis ​​com alta uniqness (na iteração atual) recebem menos peso . Use esse método se desejar que seus fatores se ajustem a variáveis altamente únicas (ou seja, aquelas levemente influenciadas pelos fatores) piores que variáveis altamente comuns (ou seja, fortemente influenciadas pelos fatores). Esse desejo não é incomum, especialmente no processo de construção de questionários (pelo menos acho que sim), portanto essa propriedade é vantajosa .344

Máxima verossimilhança (ML)assume que os dados (as correlações) vieram da população com distribuição normal multivariada (outros métodos não fazem essa suposição) e, portanto, os resíduos dos coeficientes de correlação devem ser normalmente distribuídos em torno de 0. As cargas são iterativamente estimadas pela abordagem de ML sob a suposição acima. O tratamento das correlações é ponderado pela uniqness da mesma maneira que no método dos mínimos quadrados generalizados. Enquanto outros métodos apenas analisam a amostra como ela é, o método ML permite alguma inferência sobre a população, geralmente são calculados vários índices de ajuste e intervalos de confiança [infelizmente, principalmente não no SPSS, embora as pessoas escrevam macros para o SPSS que fazem isso. isto].

Todos os métodos que descrevi brevemente são modelo latente linear contínuo. "Linear" implica que as correlações de classificação, por exemplo, não devem ser analisadas. "Contínuo" implica que dados binários, por exemplo, não devem ser analisados ​​(seria mais apropriado o IRT ou FA baseado em correlações tetracóricas).


1 Como a matriz de correlação (ou covariância) , - depois que as comunalidades iniciais foram colocadas em sua diagonal, geralmente terá alguns autovalores negativos, eles devem ser mantidos limpos; portanto, a PCA deve ser feita por decomposição do próprio e não por SVD.R

2 método ULS inclui a composição auto-iterativa da matriz de correlação reduzida, como PAF, mas dentro de um procedimento de otimização de Newton-Raphson mais complexo, com o objetivo de encontrar variações únicas ( , singularidades) nas quais as correlações são reconstruídas ao máximo. Ao fazer isso, o ULS parece equivalente ao método chamado MINRES (apenas as cargas extraídas aparecem um pouco ortogonalmente giradas em comparação com o MINRES), que é conhecido por minimizar diretamente a soma dos resíduos quadrados das correlações.u2

3 algoritmos GLS e ML são basicamente como ULS, mas a composição automática nas iterações é realizada na matriz (ou em ), para incorporar exclusões como pesos. O ML difere do GLS ao adotar o conhecimento da tendência de autovalor esperado em distribuição normal.uR1uu1Ru1

4 O fato de que correlações produzidas por variáveis ​​menos comuns podem ser ajustadas pior pode (suponho que sim) dar algum espaço para a presença de correlações parciais (que não precisam ser explicadas), o que parece bom. O modelo puro de fator comum "não espera" correlações parciais, o que não é muito realista.

insira a descrição da imagem aqui

ttnphns
fonte
Penso que devemos acrescentar mais aspectos: se usamos os métodos para ajustar uma solução fatorial a um número pré-especificado de fatores ou se o número de fatores deve emergir dos dados, por algum critério (valor próprio, teste mais screet, ...) . Pelo que entendi, ML só é sensorial se você especificar um número de fatores, e então uma solução de fatores será buscada, e até mesmo um teste qui-quadrado será possível. O PCA permite que o número de fatores apareça dinamicamente pelas propriedades dos dados, considerando algum critério, sem teste do qui-quadrado. O PAF pode ser usado nos dois sentidos.
Gottfried Helms
1
@ Gotfried, prefiro discordar da maneira como você o coloca. Todos os métodos de FA exigem que o número de fatores m seja conhecido: você ajusta o modelo para m que você especificar. Você pode usar vários critérios que podem ajudar a decidir sobre m , mas todos eles não fazem parte dos métodos de extração de fatores. Com exceção desse qui-quadrado, calculado junto com os métodos GLS e ML. Além disso, com o método PA, se você conhece as comunidades com antecedência (o que é muito raro), pode fazê- las orientá-lo para o melhor m . Mas, em qualquer caso, é você, não um algoritmo de extração, decide m .
ttnphns
Agora, o que devemos usar? Qual é o melhor?
MrYouMath
1
O melhor é o que você mais gosta. Você escolhe e, se necessário, explica por que ele combina com você. Como em toda parte.
ttnphns
@ ttnphns, existe um princípio de when to use which?
kittygirl 10/04