Estou executando uma regressão baseada em GAM usando o pacote R gamlss e assumindo uma distribuição beta inflada a zero dos dados. Tenho apenas uma única variável explicativa no meu modelo, por isso é basicamente: mymodel = gamlss(response ~ input, family=BEZI)
.
O algoritmo fornece o coeficiente para o impacto da variável explicativa na média ( μ ) e o valor p associado a k ( entrada ) = 0 , algo como:
Mu link function: logit
Mu Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -2.58051 0.03766 -68.521 0.000e+00
input -0.09134 0.01683 -5.428 6.118e-08
Como você pode ver no exemplo acima, a hipótese de é rejeitada com alta confiança.
Em seguida, executo o modelo nulo: null = gamlss(response ~ 1, family=BEZI)
e comparo as probabilidades usando um teste de razão de verossimilhança:
p=1-pchisq(-2*(logLik(null)[1]-logLik(mymodel)[1]), df(mymodel)-df(null)).
Em vários casos, recebo mesmo quando os coeficientes na entrada são relatados como altamente significativos (como acima). Acho isso bastante incomum - pelo menos isso nunca aconteceu na minha experiência com regressão linear ou logística (na verdade, isso também nunca aconteceu quando eu estava usando gama ajustada a zero com gamlss).
Minha pergunta é: ainda posso confiar na dependência entre resposta e entrada quando for esse o caso?