As funções de ativação são usadas para introduzir não linearidades na saída linear do tipo w * x + bem uma rede neural. O que eu sou capaz de entender intuitivamente para as funções de ativação como sigmoide. Entendo as vantagens do ReLU, que evita neurônios mortos durante a retropropagação. No...