O carregamento na análise fatorial ou no PCA ( ver 1 , ver 2 , ver 3 ) é o coeficiente de regressão, peso em uma combinação linear que prevê variáveis (itens) por fatores / componentes padronizados (variação de unidade).
1
Razão 1: matriz de covariância analisada.
Se analisadas foram variáveis padronizadas, ou seja, a análise foi baseada na matriz de correlação ; depois da extração ou após a rotação ortogonal (como o varimax) - quando fatores / componentes permanecem sem correlação - as cargas também são os coeficientes de correlação. Essa é a propriedade da equação de regressão linear: com preditores padronizados ortogonais, os parâmetros são iguais às correlações de Pearson. Portanto, nesse caso, o carregamento não pode estar além de [-1, 1].
Porém, se analisadas apenas variáveis centradas, ou seja, a análise foi baseada na matriz de covariância , então as cargas não precisam ser confinadas a [-1, 1] porque os coeficientes de regressão é que esse modelo não precisa ser igual aos coeficientes de correlação. Eles são, na verdade, covariâncias. Observe que eram carregamentos brutos. Existem cargas "redimensionadas" ou "padronizadas" (descritas nos links que forneci no primeiro parágrafo) que são redimensionadas para não deixar a banda [-1, 1].
Razão 2: rotação oblíqua. Após a rotação oblíqua , como promax ou oblimin, temos dois tipos de cargas: matriz padrão (coeficientes de regressão ou cargas per se) e matriz estrutural (coeficientes de correlação). Eles não são iguais entre si por causa do motivo acima: os coeficientes de regressão dos preditores correlacionados são diferentes das correlações de Pearson. Assim, um carregamento de padrão pode facilmente ultrapassar [-1, 1]. Observe que isso é verdade mesmo quando a matriz de correlação foi a matriz analisada. Então é assim que quando fatores / componentes são oblíquos.
Razão 3 (rara): caso Heywood. O caso Heywood ( pt 6 ) é uma dificuldade nos algoritmos de análise fatorial quando, nas iterações, o carregamento excede a magnitude permitida teoricamente - ocorre quando a comunalidade ultrapassa a variação. O caso Heywood é uma situação rara e é encontrado em alguns conjuntos de dados normalmente quando há poucas variáveis para suportar o número solicitado de fatores. Os programas informam que há um erro de caso Heywood e param ou tentam resolvê-lo.