Meu conjunto de dados ( ) possui uma variável dependente (DV), cinco variáveis independentes "de linha de base" (P1, P2, P3, P4, P5) e uma variável independente de interesse (Q).
Executei regressões lineares OLS para os dois modelos a seguir:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
Ou seja, adicionar o preditor Q diminuiu a quantidade de variação explicada no modelo linear. Tanto quanto eu entendo, isso não deveria acontecer .
Para ficar claro, esses são valores ao quadrado R e não ajustados ao quadrado R.
Eu verifiquei os valores do quadrado R usando os modelos de estatísticas do Jasp e do Python .
Existe alguma razão para eu estar vendo esse fenômeno? Talvez algo relacionado ao método OLS?
Respostas:
Será que você tem valores ausentes
Q
que estão sendo descartados automaticamente? Isso teria implicações na amostra, tornando as duas regressões não comparáveis.fonte