Digamos que queremos fazer a regressão de forma simples f = x * y
usando uma rede neural profunda padrão.
Lembro-me de que existem novas pesquisas que indicam que NN com uma camada hiden pode aproximar qualquer função, mas tentei e sem normalização o NN não conseguiu aproximar nem mesmo essa multiplicação simples. Somente a normalização de log de dados ajudou. m = x*y => ln(m) = ln(x) + ln(y).
Mas isso parece uma trapaça. O NN pode fazer isso sem a normalização do log? A resposta é obviamente (quanto a mim) - sim, então a questão é mais o que deve ser o tipo / configuração / layout desse NN?