Uma explicação possível seria não linearidades na relação entre seu resultado e o preditor.
Aqui está um pequeno exemplo. Usamos um preditor uniforme em . O resultado, no entanto, não depende linearmente do preditor, mas do quadrado do preditor: TRUE é mais provável para e , mas menos provável para . Nesse caso, um modelo linear será insignificante, mas cortar o preditor em intervalos o torna significativo.[−1,1]x≈−1x≈1x≈0
> set.seed(1)
> nn <- 1e3
> xx <- runif(nn,-1,1)
> yy <- runif(nn)<1/(1+exp(-xx^2))
>
> library(lmtest)
>
> model_0 <- glm(yy~1,family="binomial")
> model_1 <- glm(yy~xx,family="binomial")
> lrtest(model_1,model_0)
Likelihood ratio test
Model 1: yy ~ xx
Model 2: yy ~ 1
#Df LogLik Df Chisq Pr(>Chisq)
1 2 -676.72
2 1 -677.22 -1 0.9914 0.3194
>
> xx_cut <- cut(xx,c(-1,-0.3,0.3,1))
> model_2 <- glm(yy~xx_cut,family="binomial")
> lrtest(model_2,model_0)
Likelihood ratio test
Model 1: yy ~ xx_cut
Model 2: yy ~ 1
#Df LogLik Df Chisq Pr(>Chisq)
1 3 -673.65
2 1 -677.22 -2 7.1362 0.02821 *
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
No entanto, isso não significa que discretizar o preditor seja a melhor abordagem. (Quase nunca é.) Muito melhor modelar a não linearidade usando splines ou similar.
Uma maneira possível é se o relacionamento for claramente não-linear. Não é possível dizer (dada a falta de detalhes) se isso realmente explica o que está acontecendo.
Você pode verificar por si mesmo. Primeiro, você pode fazer um gráfico de variável adicionado para a variável em si e também pode plotar os efeitos ajustados na versão fatorial do modelo. Se a explicação estiver correta, ambos devem ver um padrão distintamente não linear.
fonte