Perguntas com a marcação «deep-learning»

14
Por que não usamos taxas de aprendizado não constantes para o gradiente decente para outras coisas que não as redes neurais?

A literatura de aprendizado profundo está cheia de truques inteligentes com o uso de taxas de aprendizado não constantes na descida do gradiente. Coisas como decaimento exponencial, RMSprop, Adagrad etc. são fáceis de implementar e estão disponíveis em todos os pacotes de aprendizado profundo, mas...