Perguntas com a marcação «gradient-descent»

A descida de gradiente é um algoritmo de otimização iterativa de primeira ordem. Para encontrar um mínimo local de uma função usando a descida do gradiente, é necessário executar etapas proporcionais ao negativo do gradiente (ou do gradiente aproximado) da função no ponto atual. Para descida de gradiente estocástico, há também a tag [sgd].