Estou fazendo um curso sobre modelos de regressão e uma das propriedades fornecidas para a regressão linear é que os resíduos sempre somam zero quando uma interceptação é incluída.
Alguém pode fornecer uma boa explicação sobre por que esse é o caso?
regression
residuals
dts86
fonte
fonte
Respostas:
Isso segue diretamente das equações normais, ou seja, as equações que o estimador OLS resolve,
O vetor dentro dos parênteses é obviamente o vetor residual ou a projeção de no complemento ortogonal do espaço da coluna de X , se você gosta de álgebra linear. Agora, incluir um vetor de uns na matriz X , que por sinal não precisa estar na primeira coluna, como é feito convencionalmente, leva ay X X
No problema de duas variáveis, isso é ainda mais simples, pois minimizar a soma dos resíduos quadrados nos leva a
quando tomamos a derivada em relação à interceptação. A partir disso, passamos a obter o estimador familiar
onde novamente vemos que a construção de nossos estimadores impõe essa condição.
fonte
Caso você esteja procurando uma explicação bastante intuitiva.
Em certo sentido, o modelo de regressão linear nada mais é que uma média sofisticada. Para encontrar a média aritméticax¯ sobre alguns valores x1,x2,…,xn , encontramos um valor que é uma medida de centralidade, no sentido de que a soma de todos os desvios (onde cada desvio é definido como ui=xi−x¯ ) à direita do valor médio são iguais à soma de todos os desvios à esquerda dessa média. Não existe uma razão inerente para que essa medida seja boa, muito menos a melhor maneira de descrever a média de uma amostra, mas é certamente intuitiva e prática. O ponto importante é que, ao definir a média aritmética dessa maneira, segue-se necessariamente que, uma vez construída a média aritmética, todos os desvios dessa média devem somar zero por definição!
Na regressão linear, isso não é diferente. Ajustamos a linha de forma que a soma de todas as diferenças entre nossos valores ajustados (que estão na linha de regressão) e os valores reais que estão acima da linha seja exatamente igual à soma de todas as diferenças entre a linha de regressão e todos os valores abaixo da linha de regressão. linha. Novamente, não há uma razão inerente à razão pela qual essa é a melhor maneira de criar um ajuste, mas é direta e intuitivamente atraente. Assim como na média aritmética: construindo nossos valores ajustados dessa maneira, segue-se necessariamente, por construção, que todos os desvios dessa linha devem somar zero, pois, caso contrário, isso não seria uma recessão do OLS.
fonte
Quando uma intercepção está incluído na regressão lineary^i=β0+β1xi,1+β2xi,2+…+βpxi,p
Em regressão de mínimos quadrados, a soma dos quadrados dos os erros são minimizados.
SSE=∑i=1n(ei)2=∑i=1n(yi−yi^)2=∑i=1n(yi−β0−β1xi,1−β2xi,2−…−βpxi,p)2
Tire a derivada parcial SSE em relação aβ0 e definindo-o como zero.
∂SSE∂β0=∑i=1n2(yi−β0−β1xi,1−β2xi,2−…−βpxi,p)1(−1)=−2∑i=1nei=0
Portanto, os resíduos sempre somam zero quando um intercepto é incluído na regressão linear.
fonte
Portanto,====1T(y−y^)=1T(I−H)yeTXT(I−X(XTX)−1XT)yeT(XT−XTX(XTX)−1XT)yeT(XT−XT)y0.
fonte
A simple derivation using matrix algebra:
Then
which equals zero ifMx and 1 are orthogonal, which is the case if the matrix of the regressors x contains the intercept (a vector of 1 , indeed).
fonte
..
fonte