Para o LASSO (e outros procedimentos de seleção de modelo), é crucial redimensionar os preditores. A recomendação geral que sigo é simplesmente usar uma média de 0, 1 normalização de desvio padrão para variáveis contínuas. Mas o que há com manequins?
Por exemplo, alguns exemplos aplicados da mesma (excelente) escola de verão que eu vinculei para redimensionar variáveis contínuas para estar entre 0 e 1 (embora não seja bom para discrepantes), provavelmente para ser comparável aos manequins. Mas mesmo isso não garante que os coeficientes sejam da mesma ordem de magnitude e, portanto, penalizados de maneira semelhante, a principal razão para o reescalonamento, não?
Respostas:
De acordo com Tibshirani ( O MÉTODO LASSO PARA SELEÇÃO VARIÁVEL NO MODO COX, Statistics in Medicine, VOL. 16, 385-395 (1997) ), que literalmente escreveu o livro sobre métodos de regularização, você deve padronizar os manequins. No entanto, você perde a interpretabilidade direta de seus coeficientes. Caso contrário, suas variáveis não estão no mesmo campo. Você está basicamente inclinando a balança em favor de suas variáveis contínuas (provavelmente). Portanto, se seu objetivo principal é a seleção de modelos, esse é um erro grave. No entanto, se você está mais interessado em interpretação, talvez essa não seja a melhor idéia.
A recomendação está na página 394:
fonte
A publicação no blog de Andrew Gelman, Quando padronizar as entradas de regressão e quando deixá-las em paz , também merece uma olhada. Esta parte em particular é relevante:
fonte
x -> x / 2
Isso é mais um comentário, mas muito longo. Um dos softwares mais usados para laço (e amigos) é o R's
glmnet
. Na página de ajuda, impressa por?glmnet
:padronizar é um dos argumentos, o padrão é true. Portanto, as variáveis são geralmente padronizadas, e isso inclui manequins (já que não há menção a uma exceção para elas). Mas os coeficientes são relatados na escala original.X
fonte