Perguntas com a marcação «neural-networks»

21
Da regra de Perceptron à Descida de Gradiente: Como os Perceptrons com uma função de ativação sigmóide são diferentes da Regressão Logística?

Essencialmente, minha pergunta é que, nos Perceptrons multicamadas, os perceptrons são usados ​​com uma função de ativação sigmóide. De modo que na regra de actualização y é calculado comoy^y^\hat{y} y^=11+exp(−wTxi)y^=11+exp⁡(−wTxi)\hat{y} = \frac{1}{1+\exp(-\mathbf{w}^T\mathbf{x}_i)} Como esse...

20
Como e por que a Normalização de lote usa médias móveis para rastrear a precisão do modelo enquanto ele treina?

Eu estava lendo o documento de normalização em lote (BN) (1) e não entendia a necessidade de usar médias móveis para rastrear a precisão do modelo e, mesmo se eu aceitasse que era a coisa certa a fazer, não entendo o que eles estão fazendo exatamente. Para meu entendimento (o que posso estar...

20
Das redes bayesianas às redes neurais: como a regressão multivariada pode ser transposta para uma rede de várias saídas

Estou lidando com um modelo linear hierárquico bayesiano , aqui a rede que o descreve. YYY representa as vendas diárias de um produto em um supermercado (observado). XXX é uma matriz conhecida de regressores, incluindo preços, promoções, dia da semana, clima e feriados. SSS é o nível de...

20
Diferença entre feedback RNN ​​e LSTM / GRU

Estou tentando entender diferentes arquiteturas de redes neurais recorrentes (RNN) a serem aplicadas a dados de séries temporais e estou ficando um pouco confuso com os diferentes nomes que são frequentemente usados ​​ao descrever RNNs. A estrutura da Memória de Longo Prazo (LSTM) e da Unidade...

19
Algoritmo de retropropagação

Fiquei um pouco confuso sobre o algoritmo de retropropagação usado no perceptron multicamada (MLP). O erro é ajustado pela função de custo. Na retropropagação, estamos tentando ajustar o peso das camadas ocultas. O erro de saída que posso entender, isto é, e = d - y[Sem os subscritos]. As...