Li os Elementos do aprendizado estatístico e não conseguia entender o que é a Seção 3.7 "Seleção e contração de múltiplos resultados". Ele fala sobre RRR (regressão de classificação reduzida), e só consigo entender que a premissa é sobre um modelo linear multivariado generalizado em que os coeficientes são desconhecidos (e devem ser estimados), mas sabe-se que não possuem classificação completa. Essa é a única coisa que eu entendo.
O resto da matemática está além de mim. Nem ajuda que os autores digam 'alguém pode mostrar' e deixa as coisas como um exercício.
Alguém por favor pode ajudar a explicar intuitivamente o que está acontecendo aqui? Este capítulo está supostamente discutindo novos métodos? ou o que?
regression
multivariate-analysis
dimensionality-reduction
regularization
reduced-rank-regression
cgo
fonte
fonte
Respostas:
1. O que é regressão de classificação reduzida (RRR)?
Considere regressão linear múltipla multivariada, isto é, regressão com variáveis independentes e q variáveis dependentes. Seja X e Y os conjuntos de dados do preditor centralizado ( n × p ) e da resposta ( n × q ). Em seguida, a regressão usual dos mínimos quadrados ordinários (OLS) pode ser formulada como minimização da seguinte função de custo:p q X Y n×p n×q
onde é uma matriz de pesos de regressão. Sua solução é dada por e é fácil veja que é equivalente a fazer regressões OLS separadas, uma para cada variável dependente. p x q B S G S = ( X ⊤ X ) - 1 X ⊤ Y , qB p×q
-Rank reduzida regressão introduz um grau de restrição em , ou seja, deve ser minimizada com , onde é o máximo permitido posto de . L rank ( B ) ≤ r r BB L rank(B)≤r r B
2. Como obter a solução RRR?
Acontece que o RRR pode ser convertido como um problema de vetor próprio. De fato, usando o fato de que OLS é essencialmente projeção ortogonal no espaço da coluna de , podemos reescrever comoO primeiro termo não depende de e o segundo termo pode ser minimizado por SVD / PCA dos valores ajustados . L L = ‖ Y - X B S G S ‖ 2 + ‖ X B S G S - X B ‖ 2 . BX L
Especificamente, se for o primeiro eixo principal de , então R Y B R R R = BUr r Y^
3. Para que serve o RRR?
Pode haver dois motivos para usar o RRR.
Primeiro, pode-se usá-lo para fins de regularização. Da mesma forma que a regressão cume (RR), laço, etc., RRR introduz alguma penalidade "encolhimento" na . A classificação ótima pode ser encontrada através da validação cruzada. Na minha experiência, o RRR supera facilmente o OLS, mas tende a perder para o RR. No entanto, RRR + RR pode ter um desempenho (ligeiramente) melhor que o RR sozinho. rB r
Segundo, pode-se usá-lo como um método de redução de dimensionalidade / exploração de dados. Se tivermos várias variáveis preditivas e várias variáveis dependentes, a RRR construirá "fatores latentes" no espaço preditivo que fazem o melhor trabalho para explicar a variação dos DVs. Pode-se então tentar interpretar esses fatores latentes, plotá-los, etc. Até onde eu sei, isso é rotineiramente feito em ecologia, onde a RRR é conhecida como análise de redundância e é um exemplo do que eles chamam de métodos de ordenação ( veja a resposta de @ GavinSimpson aqui )
4. Relação com outros métodos de redução de dimensionalidade
O RRR está intimamente conectado a outros métodos de redução de dimensionalidade, como CCA e PLS. Eu o cobri um pouco na minha resposta para Qual é a conexão entre mínimos quadrados parciais, regressão de classificação reduzida e regressão de componentes principais?
Veja lá para mais alguns detalhes.
Veja Torre, 2009, Uma estrutura de mínimos quadrados para análise de componentes para um tratamento detalhado de como a maioria dos métodos multivariados lineares comuns (por exemplo, PCA, CCA, LDA, - mas não PLS!) Pode ser vista como RRR.
5. Por que esta seção está em Hastie et al. tão confuso?
Hastie et al. use o termo RRR para se referir a algo ligeiramente diferente! Em vez de usar a função de perda eles usam como pode ser visto na fórmula 3.68. Isso introduz um fator de clareamento na função de perda, essencialmente branqueando as variáveis dependentes. Se você observar a comparação entre o CCA e o RRR acima, notará que se for embranquecido, a diferença desaparecerá. Então, o que Hastie et al. chamar RRR é na verdade CCA disfarçado (e de fato, veja seus 3,69).
Nada disso é explicado corretamente nesta seção, daí a confusão.
Veja minha resposta ao tutorial Amigável ou introdução à regressão de classificação reduzida para leitura adicional.
fonte
A regressão de classificação reduzida é um modelo em que não há um único resultado Y, mas vários resultados Y. Obviamente, você pode apenas ajustar uma regressão linear multivariada separada para cada resposta, mas isso parece ineficiente quando a relação funcional entre os preditores e cada resposta é claramente semelhante. Veja este exercício de kaggle para uma situação em que acredito que isso obviamente se aplica.
https://www.kaggle.com/c/bike-sharing-demand/data
Existem várias técnicas relacionadas para abordar esse problema que criam "fatores" ou "componentes" a partir das variáveis X que são usadas para prever os Ys. Esta página de documentação do SAS ajudou a esclarecer as diferenças para mim. A regressão de classificação reduzida parece ser sobre a extração de componentes que respondem ao máximo pela variação entre as respostas, em contraste com os Mínimos Quadrados Parciais, que extraem os componentes que respondem ao máximo pela variação entre as respostas e os preditores.
https://support.sas.com/documentation/cdl/en/statug/63347/HTML/default/viewer.htm#statug_pls_sect014.htm
fonte