A ordem das variáveis ​​explicativas é importante no cálculo de seus coeficientes de regressão?

24

No começo, pensei que a ordem não importava, mas depois li sobre o processo de ortogonalização de Gram-Schmidt para calcular vários coeficientes de regressão, e agora estou pensando melhor.

De acordo com o processo de gram-schmidt, quanto mais tarde uma variável explicativa for indexada entre as outras variáveis, menor será o vetor residual, pois os vetores residuais das variáveis ​​anteriores serão subtraídos. Como resultado, o coeficiente de regressão da variável explicativa também é menor.

Se isso for verdade, o vetor residual da variável em questão seria maior se fosse indexado anteriormente, uma vez que menos vetores residuais seriam subtraídos dela. Isso significa que o coeficiente de regressão também seria maior.

Ok, então me pediram para esclarecer minha pergunta. Então, publiquei capturas de tela do texto que me confundiram em primeiro lugar. Ok, aqui vai.

Meu entendimento é que existem pelo menos duas opções para calcular os coeficientes de regressão. A primeira opção é indicada (3.6) na captura de tela abaixo.

A primeira maneira

Aqui está a segunda opção (eu tive que usar várias capturas de tela).

O segundo caminho

insira a descrição da imagem aqui insira a descrição da imagem aqui

A menos que eu esteja interpretando mal algo (o que é definitivamente possível), parece que a ordem é importante na segunda opção. Isso importa na primeira opção? Por que ou por que não? Ou meu quadro de referência está tão confuso que nem sequer é uma pergunta válida? Além disso, isso tudo está de alguma forma relacionado à soma dos quadrados tipo I versus soma dos quadrados tipo II?

Muito obrigado antecipadamente, estou tão confuso!

Ryan Zotti
fonte
11
Você poderia descrever o procedimento exato de como os coeficientes são calculados? Pelo que sei sobre ortogonalização de gram-schmidt e como ela pode ser aplicada ao problema de regressão, posso presumir que, usando o procedimento gs, você pode se ajustar à regressão, mas não aos coeficientes originais. Observe que o ajuste de regressão é a projeção para o espaço das colunas. Se você ortogonalizar as colunas, obtém a base ortogonal do espaço que mede as colunas; portanto, o ajuste será uma combinação linear dessa base e também uma combinação linear de colunas originais. Será o mesmo ...
mpiktas
mas os coeficientes serão diferentes. Isso é perfeitamente normal.
precisa saber é
Acho que estou confuso porque pensei ter lido em "Os elementos do aprendizado estatístico" que os coeficientes computados usando o processo gram-schmidt seriam os mesmos que os calculados usando o processo tradicional: B = (X'X) ^ - 1 X'y.
23912 Ryan Zotti
Aqui está o trecho do livro que fala sobre o procedimento: "Podemos ver a estimativa [dos coeficientes] como resultado de duas aplicações da regressão simples. As etapas são: 1. regredir x em 1 para produzir o z = residual x - x ̄1; 2. regule y no z residual para obter o coeficiente βˆ 1. Esta receita generaliza para o caso das entradas p, como mostra o algoritmo 3.1 Observe que as entradas z0,..., zj-1 na etapa 2 são ortogonais, portanto, os coeficientes de regressão simples calculados existem de fato também os coeficientes de regressão múltiplos ".
23912 Ryan Zotti
Fico um pouco confuso quando copio e colo na seção de comentários aqui, então provavelmente é melhor apenas olhar diretamente para a fonte. As páginas 53 a 54 de "Os Elementos da Aprendizagem Estatística" estão disponíveis gratuitamente para download no site da Stanford: www-stat.stanford.edu/~tibs/ElemStatLearn .
23912 Ryan Zotti

Respostas:

22

Acredito que a confusão possa estar surgindo de algo um pouco mais simples, mas oferece uma boa oportunidade para revisar alguns assuntos relacionados.

Observe que o texto não está afirmando que todos os coeficientes de regressão pode ser calculado através dos vetores residuais sucessivos como mas sim que somente o último , , pode ser calculado dessa maneira!β^i

β^i=?y,zizi2,
β^p

O esquema sucessivo de ortogonalização (uma forma de ortogonalização de Gram-Schmidt) está (quase) produzindo um par de matrizes e tal que onde seja com colunas ortonormais e seja triangular superior. Eu digo "quase", já que o algoritmo está apenas especificando até as normas das colunas, que em geral não serão uma, mas podem ter uma norma de unidade normalizando as colunas e fazendo um ajuste simples correspondente à coordenada matriz .ZG

X=ZG,
Zn×pG=(gij)p×pZG

Supondo, é claro, que tenha classificação , a única solução de mínimos quadrados é o vetor que resolve o sistema XRn×ppnβ^

XTXβ^=XTy.

Substituindo e usando (por construção), obtemos que é equivalente a X=ZGZTZ=I

GTGβ^=GTZTy,
Gβ^=ZTy.

Agora, concentre-se na última linha do sistema linear. O único elemento diferente de zero de na última linha é . Então, obtemos que Não é difícil ver (verifique isso como uma verificação de entendimento!) Quee assim isso produz a solução. ( Advertência : eu já usei já normalizado para ter norma de unidade, enquanto no livro eles não têm . Isso explica o fato de que o livro tem uma norma ao quadrado no denominador, enquanto eu só tenho a norma.)Ggpp

gppβ^p=y,zp.
gpp=zpzi

Para encontrar todos os coeficientes de regressão, é necessário executar uma simples etapa de substituição traseira para resolver o indivíduo . Por exemplo, para a linha , e assim Pode-se continuar esse procedimento trabalhando "para trás" da última linha do sistema até a primeira, subtraindo somas ponderadas dos coeficientes de regressão já calculados e depois dividindo pelo termo inicial para obter .β^i(p1)

gp1,p1β^p1+gp1,pβ^p=zp1,y,
β^p1=gp1,p11zp1,ygp1,p11gp1,pβ^p.
giiβ^i

O ponto na seção em ESL é que poderíamos reordenar as colunas de para obter uma nova matriz com a a coluna original agora sendo a última. Se aplicarmos o procedimento Gram-Schmidt na nova matriz, obteremos uma nova ortogonalização, de modo que a solução para o coeficiente original seja encontrada pela solução simples acima. Isso nos dá uma interpretação para o coeficiente de regressão . É uma regressão univariada de no vetor residual obtido por "regressão" das colunas restantes da matriz de design de .XX(r)rβ^rβ^ryxr

Decomposições QR gerais

O procedimento de Gram-Schmidt é apenas um método de produção de uma decomposição de QR . De fato, existem muitas razões para preferir outras abordagens algorítmicas ao procedimento de Gram-Schmidt.X

As reflexões das famílias e as rotações de Givens fornecem abordagens numericamente mais estáveis ​​para esse problema. Observe que o desenvolvimento acima não muda no caso geral de decomposição do QR. Nomeadamente, deixa ser qualquer decomposição de QR . Em seguida, usando exatamente o mesmo raciocínio e manipulações algébricas como acima, temos que a solução de mínimos quadrados satisfaz o que simplifica para Como é triangular superior, a mesma técnica de substituição traseira funciona. Primeiro resolvemos para

X=QR,
Xβ^
RTRβ^=RTQTy,
Rβ^=QTy.
Rβ^pe, em seguida, trabalhe para trás, de baixo para cima. A escolha pela qual o algoritmo de decomposição QR usar geralmente depende do controle da instabilidade numérica e, sob essa perspectiva, Gram-Schmidt geralmente não é uma abordagem competitiva.

Essa noção de decompor como uma matriz ortogonal vezes outra coisa também pode ser generalizada um pouco mais para obter uma forma muito geral para o vetor ajustado , mas temo que essa resposta já tenha sido muito longa .Xy^

cardeal
fonte
6

Dei uma olhada no livro e parece que o exercício 3.4 pode ser útil para entender o conceito de uso do GS para encontrar todos os coeficientes de regressão (não apenas o coeficiente final - então digitei uma solução. útil.βjβp

Exercício 3.4 em ESL

Mostre como o vetor dos coeficientes mínimos quadrados pode ser obtido a partir de uma única passagem do procedimento de Gram-Schmidt. Representar a sua solução em termos de decomposição QR de . X

Solução

Lembre-se de que, com uma única passagem do procedimento de Gram-Schmidt, podemos escrever nossa matriz como onde contém as colunas ortogonais e é uma matriz na diagonal superior com as na diagonal e . Isso reflete o fato de que, por definição,X

X=ZΓ,
ZzjΓγij=zi,xjzi2
xj=zj+k=0j1γkjzk.

Agora, pela decomposição do , podemos escrever , onde é uma matriz ortogonal e é uma matriz triangular superior. Temos e , onde é uma matriz diagonal com. QRX=QRQRQ=ZD1R=DΓDDjj=zj

Agora, por definição de , temos Agora, usando a decomposição , temosβ^

(XTX)β^=XTy.
QR
(RTQT)(QR)β^=RTQTyRβ^=QTy

R é triangular superior, podemos escrever de acordo com nossos resultados anteriores. Agora, por substituição , podemos obter a sequência de coeficientes de regressão . Como exemplo, para calcular , começamos

Rppβ^p=qp,yzpβ^p=zp1zp,yβ^p=zp,yzp2
β^jβ^p1
Rp1,p1β^p1+Rp1,pβ^p=qp1,yzp1β^p1+zp1γp1,pβ^p=zp11zp1,y
e depois resolvendo . Este processo pode ser repetido para todos , obtendo assim os coeficientes de regressão em uma passagem do procedimento de Gram-Schmidt.β^p1βj
Andrew Tulloch
fonte
3

Por que não tentar e comparar? Ajuste um conjunto de coeficientes de regressão, altere a ordem e ajuste-os novamente e veja se eles diferem (exceto o possível erro de arredondamento).

Como o @mpiktas aponta, não está exatamente claro o que você está fazendo.

Eu posso ver usando GS para resolver na equação dos mínimos quadrados . Mas então você faria o GS na matriz , não os dados originais. Nesse caso, os coeficientes devem ser os mesmos (exceto o possível erro de arredondamento).B(xx)B=(xy)(xx)

Outra abordagem do GS na regressão é aplicar o GS às variáveis ​​preditoras para eliminar a colinearidade entre elas. Em seguida, as variáveis ​​ortogonizadas são usadas como preditores. Nesse caso, a ordem é importante e os coeficientes serão diferentes porque a interpretação dos coeficientes depende da ordem. Considere 2 preditores e e faça GS neles nessa ordem e use-os como preditores. Nesse caso, o primeiro coeficiente (após a interceptação) mostra o efeito de em por si só e o segundo coeficiente é o efeito de em após o ajuste parax1x2x1yx2yx1. Agora, se você reverter a ordem dos x, o primeiro coeficiente mostrará o efeito de em por si só (ignorando vez de se ajustar a ele) e o segundo é o efeito de ajustando-se a .x2yx1x1x2

Greg Snow
fonte
Acho que o seu último parágrafo provavelmente é o mais próximo da fonte da minha confusão - a GS faz com que a ordem seja importante. Isso foi o que eu pensei. Ainda estou um pouco confuso, porque o livro que estou lendo, chamado: "Os Elementos de Aprendizagem Estatística" (uma publicação de Stanford que está disponível gratuitamente: www-stat.stanford.edu/~tibs/ElemStatLearn ) parece sugerir que o GS é equivalente à abordagem padrão para o cálculo dos coeficientes; isto é, B = (X'X) ^ - 1 X'y.
22812 Ryan Zotti
E parte do que você diz também me confunde um pouco: "Eu posso ver usando o GS para resolver B na equação dos mínimos quadrados (x′x) ^ - 1 B = (x′y). Mas então você faria o GS na matriz (x′x), não nos dados originais. " Eu pensei que a matriz x'x continha os dados originais? ... Pelo menos é o que diz Elements of Statistical Learning. Diz que x no x'x é uma matriz N por p onde N é o número de entradas (observações) ep é o número de dimensões.
23912 Ryan Zotti
Se GS não é o procedimento padrão para o cálculo dos coeficientes, então como a colinearidade é normalmente tratada? Como a redundância (colinearidade) é tipicamente distribuída entre os x's? Tradicionalmente, a colinearidade não torna os coeficientes instáveis? Então isso não sugere que o processo GS é o processo padrão? Como o processo GS também torna os coeficientes instáveis ​​- um vetor residual menor torna o coeficiente instável.
23912 Ryan Zotti
Pelo menos é o que o texto diz: "Se xp estiver altamente correlacionado com alguns dos outros xk, o vetor residual zp será próximo de zero e, a partir de (3,28), o coeficiente βˆp será muito instável".
23912 Ryan Zotti
2
Observe que GS é uma forma de decomposição QR.
cardeal