Por que as funções de ativação de unidades lineares retificadas (ReLU) são consideradas não lineares? f( x ) = max ( 0 , x )f(x)=max(0 0,x) f(x) = \max(0,x) Eles são lineares quando a entrada é positiva e, do meu entendimento, para desbloquear o poder representativo das redes profundas, as...