Eu li três razões principais para padronizar variáveis antes de algo como Lasso
regressão:
1) Interpretabilidade dos coeficientes.
2) Capacidade de classificar a importância do coeficiente pela magnitude relativa das estimativas de coeficiente pós-retração.
3) Não há necessidade de interceptação.
Mas estou pensando no ponto mais importante. Temos motivos para pensar que a padronização melhoraria a generalização fora da amostra do modelo? Também não me importo se não preciso de uma interceptação no meu modelo; adicionar um não me machuca.
Respostas:
A regressão do laço impõe restrições ao tamanho dos coeficientes associados a cada variável. No entanto, esse valor dependerá da magnitude de cada variável. Portanto, é necessário centralizar e reduzir ou padronizar as variáveis.
O resultado da centralização das variáveis significa que não há mais interceptação. Isso se aplica igualmente à regressão de crista, a propósito.
Outra boa explicação é este post: Necessidade de centralizar e padronizar dados em regressão
fonte
O parâmetro de penalidade L1 é uma soma dos termos beta absolutos. Se as variáveis têm dimensões diferentes, esse termo não é realmente aditivo, embora matematicamente não exista nenhum erro.
No entanto, não vejo as variáveis fictícias / categóricas que sofrem com esse problema e acho que elas não precisam ser padronizadas. padronizá-las pode reduzir a interpretabilidade das variáveis
fonte