Estou passando pelo seguinte blog na rede neural LSTM: http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/
O autor reformula o vetor de entrada X como [amostras, etapas de tempo, recursos] para diferentes configurações de LSTMs.
O autor escreve
De fato, as seqüências de letras são etapas temporais de um recurso, em vez de um passo temporal de recursos separados. Demos mais contexto à rede, mas não mais sequência, como esperado
O que isto significa?
fonte
t-n,..., t-2, t-1
para prevert
.É um pouco tarde demais, mas por precaução;
Uma amostra pode se referir a exemplos de treinamento individuais. Uma variável "batch_size" é, portanto, a contagem de amostras enviadas para a rede neural. Ou seja, quantos exemplos diferentes você fornece de uma só vez para a rede neural.
TimeSteps são marcas de tempo. É quanto tempo cada uma de suas amostras é. Por exemplo, uma amostra pode conter etapas de 128 vezes, onde cada etapa pode ser um trigésimo de segundo para o processamento do sinal. No Processamento de linguagem natural (PNL), um intervalo de tempo pode ser associado a um caractere, uma palavra ou sentença, dependendo da configuração.
Os recursos são simplesmente o número de dimensões que alimentamos a cada etapa do tempo. Por exemplo, na PNL, uma palavra pode ser representada por 300 recursos usando o word2vec. No caso do processamento de sinal, vamos fingir que seu sinal é 3D. Ou seja, você tem um sinal X, Y e Z, como as medições de um acelerômetro em cada eixo. Isso significa que você teria três recursos enviados a cada etapa de cada amostra.
Por Guillaume
fonte