Na regressão linear, encontrei um resultado agradável que, se encaixarmos no modelo
então, se padronizarmos e centralizarmos os dados , e ,X 1 X 2
Isso me parece uma versão de 2 variáveis de para regressão, o que é agradável. y = m x + c
Mas a única prova que conheço não é de forma alguma construtiva ou perspicaz (veja abaixo), e, no entanto, para olhar para ela, parece que deve ser facilmente compreensível.
Exemplos de pensamentos:
- Os e nos fornecem a 'proporção' de e em ; portanto, estamos tomando proporções respectivas de suas correlações ...β 2 X 1 X 2 Y
- Os s são correlações parciais, é a correlação múltipla ao quadrado ... correlações multiplicadas por correlações parciais ...R 2
- Se ortogonalizarmos primeiro, os s serão ... esse resultado faz algum sentido geométrico?C o v / V a r
Nenhum desses tópicos parece levar a lugar algum para mim. Alguém pode fornecer uma explicação clara de como entender esse resultado.
Prova Insatisfatória
e
QED.
regression
linear-model
r-squared
proof
Korone
fonte
fonte
Respostas:
A matriz do chapéu é idempotente.
(Esta é uma maneira algébrica-linear de afirmar que OLS é uma projeção ortogonal do vetor de resposta no espaço estendido pelas variáveis.)
Lembre-se de que, por definição
Onde
é a soma dos quadrados dos valores previstos (centralizados) e
é a soma dos quadrados dos valores de resposta (centralizados). A padronização prévia de para a variação unitária também implicaY
Lembre-se, também, que os coeficientes estimados são dados por
de onde
onde é a "matriz chapéu" efectuar a projecção de para os seus mínimos quadrados caber . É simétrico (o que é óbvio por sua própria forma) e idempotente . Aqui está uma prova deste último para aqueles que não estão familiarizados com esse resultado. É apenas embaralhar parênteses em torno de:H Y Y^
Portanto
O movimento crucial no meio usou a idempotência da matriz do chapéu. O lado direito é a sua fórmula mágica porque é o (linha) de vector de coeficientes de correlação entre e as colunas de .1nY′X Y X
fonte
^{-}
vez de^{-1}
todos os lugares?As três fórmulas a seguir são bem conhecidas, elas são encontradas em muitos livros sobre regressão linear. Não é difícil derivá-los.
Se você substituir os dois betas em sua equação , obterá a fórmula acima para o quadrado R.R2=rYX1β1+rYX2β2
Aqui está um "insight" geométrico. Abaixo estão duas imagens mostrando a regressão de por e . Esse tipo de representação é conhecido como variáveis como vetores no espaço do assunto ( leia sobre o que se trata). As figuras são desenhadas depois que todas as três variáveis foram centralizadas, e assim (1) o comprimento de cada vetor = st. desvio da respectiva variável e (2) ângulo (seu cosseno) entre cada dois vetores = correlação entre as respectivas variáveis.Y X1 X2
A figura da esquerda mostra as coordenadas inclinadas de nas variáveis e . Sabemos que essas coordenadas relacionam os coeficientes de regressão. Nomeadamente, as coordenadas são: e .Y^ X1 X2 b1|X1|=b1σX1 b2|X2|=b2σX2
E a imagem à direita mostra as coordenadas perpendiculares correspondentes . Sabemos que essas coordenadas relacionam os coeficientes de correlação de ordem zero (estes são cossenos de projeções ortogonais). Se for a correlação entre e e for a correlação entre e , a coordenada será . Da mesma forma para a outra coordenada, .r1 Y X1 r∗1 Y^ X1 r1|Y|=r1σY=r∗1|Y^|=r∗1σY^ r2|Y|=r2σY=r∗2|Y^|=r∗2σY^
Até agora, havia explicações gerais da representação vetorial de regressão linear. Agora, voltamos à tarefa para mostrar como ela pode levar a .R2=r1β1+r2β2
Antes de tudo, lembre-se de que, na pergunta deles, @Corone apresentou a condição de que a expressão é verdadeira quando todas as três variáveis são padronizadas , ou seja, não apenas centralizadas, mas também dimensionadas para a variação 1. Então (isto é, implica são as "partes de trabalho" dos vetores), temos coordenadas iguais a: ; ; ; ; bem como. Redesenhe, nessas condições, apenas o "plano X" das figuras acima:|X1|=|X2|=|Y|=1 b1|X1|=β1 b2|X2|=β2 r1|Y|=r1 r2|Y|=r2 R=|Y^|/|Y|=|Y^|
No quadro, que tem um par de coordenadas perpendiculares e um par de coordenadas de inclinação, do mesmo vector de comprimento . Existe uma regra geral para obter coordenadas perpendiculares a partir das inclinadas (ou anteriores): , onde é matriz de coordenadas perpendiculares; é a mesma matriz de tamanho dos enviesados; e são a matriz simétrica de ângulos (cossenos) entre os eixos não-ortogonais.Y^ R P=SC P S C
points X axes
axes X axes
Substitua esses s expressos por s na declaração de @ Corone e você obterá que , - o que é verdade , porque é exatamente como uma diagonal de um paralelogramo (pintada na figura) é expressa através de seus lados adjacentes (quantidade sendo o produto escalar).β R 2 = R 1 β 1 + R 2 β 2 R 2 = β 2 1 + β 2 2 + 2 β 1 β 2 R 12 β 1 β 2 r 12r β R2=r1β1+r2β2 R2=β21+β22+2β1β2r12 β1β2r12
O mesmo se aplica a qualquer número de preditores X. Infelizmente, é impossível desenhar imagens semelhantes com muitos preditores.
fonte