Perguntas com a marcação «backpropagation»

Use para perguntas sobre retropropagação, que é comumente usado no treinamento de redes neurais em conjunto com um método de otimização, como gradiente descendente.

62
Backprop através de camadas de pool máximo?

Esta é uma pequena questão conceitual que me incomoda há um tempo: como podemos retropropagar através de uma camada de pool máximo em uma rede neural? Me deparei com camadas de pool máximo durante o tutorial da biblioteca nn do Torch 7. A biblioteca abstrai o cálculo do gradiente e as passagens...

14
propagação de volta na CNN

Eu tenho o seguinte CNN: Começo com uma imagem de entrada do tamanho 5x5 Em seguida, aplico a convolução usando o kernel 2x2 e stride = 1, que produz um mapa de recursos do tamanho 4x4. Em seguida, aplico o pool máximo 2x2 com stride = 2, que reduz o mapa de recursos para o tamanho 2x2. Então...

10
Como fazer produto interno em lote no Tensorflow?

Eu tenho dois tensores a:[batch_size, dim] b:[batch_size, dim]. Quero fazer um produto interno para cada par do lote, gerando c:[batch_size, 1], onde c[i,0]=a[i,:].T*b[i,:].

8
Criando rede neural para a função xor

É um fato bem conhecido que uma rede de uma camada não pode prever a função xor, uma vez que não é linearmente separável. Tentei criar uma rede de duas camadas, usando a função sigmoide logística e backprop, para prever xor. Minha rede possui 2 neurônios (e um viés) na camada de entrada, 2...

8
Como aplicar o gradiente de softmax em backprop

Recentemente, fiz uma lição de casa em que tive que aprender um modelo para a classificação de 10 dígitos do MNIST. O HW tinha algum código de andaime e eu deveria trabalhar no contexto desse código. Meu dever de casa funciona / passa nos testes, mas agora estou tentando fazer tudo do zero (minha...

8
Gradientes sintéticos - qual é o benefício prático?

Eu posso ver dois motivos para usar Gradientes Sintéticos na RNN: Para acelerar o treinamento, corrigindo imediatamente cada camada com o gradiente previsto Ser capaz de aprender sequências mais longas Eu vejo problemas com os dois. Observe que eu realmente gosto de gradientes sintéticos...