Qual é o benefício da distribuição normal truncada na inicialização de pesos em uma rede neural?
Ao inicializar pesos de conexão em uma rede neural de feedforward, é importante inicializá-los aleatoriamente para evitar simetrias que o algoritmo de aprendizado não seria capaz de quebrar. A recomendação que vi em vários locais (por exemplo, no tutorial MNIST do TensorFlow ) é usar a...