No curso de redes neurais e aprendizado profundo de Andrew Ng, sobre o Coursera, ele diz que usar é quase sempre preferível ao .tanhtanhtanhsigmoidsigmoidsigmoid A razão que ele dá é que as saídas usando centralizam em torno de 0 em vez de 0,5 da , e isso "torna o aprendizado para a próxima camada...
33
Por que tanh quase sempre é melhor que sigmóide como uma função de ativação?