Qual é a diferença estatística entre fazer uma regressão linear em R com o formula
conjunto para em y ~ x + 0
vez de y ~ x
? Como interpreto esses dois resultados diferentes?
11
Qual é a diferença estatística entre fazer uma regressão linear em R com o formula
conjunto para em y ~ x + 0
vez de y ~ x
? Como interpreto esses dois resultados diferentes?
Adicionar +0
(ou -1
) a uma fórmula de modelo (por exemplo, in lm()
) em R suprime a interceptação. Isso geralmente é considerado uma coisa ruim a se fazer; Vejo:
A inclinação estimada é calculada de maneira diferente, dependendo se a interceptação também é estimada, a saber:
Como a quantidade a ser subtraída (o "subtraendo") no numerador e no denominador não é necessariamente , a estimativa da inclinação é enviesada quando a interceptação é suprimida.
O valor para também é calculado de maneira diferente; Vejo:
Aqui estão as fórmulas subjacentes:
Depende do contexto (é claro), no
lm(...)
comando em R suprimirá a interceptação. Ou seja, você faz regressão através da origem.Observe que a maioria dos livros sobre o assunto da regressão dirá que forçar a interceptação (a qualquer valor) é uma má idéia.
A interpretação de x não muda, mas o valor (comparando com e sem interceptação) muda, às vezes de maneira muito significativa.
fonte