Atualmente, leio o artigo Efficient Online e Batch Learning usando a divisão forward-backward de John Duchi e Yoram Singer. Estou muito confuso sobre o uso dos termos 'Online' e 'Lote'.
Pensei 'Online' significa que atualizamos os parâmetros de peso após o processamento de uma unidade dos dados de treinamento. Em seguida, usamos os novos parâmetros de peso para processar a próxima unidade dos dados de treinamento.
No entanto, no artigo acima, o uso não é tão claro.
Respostas:
Para mim, parece que eles estão usando o lote e o aprendizado on-line corretamente. Na seção 3, eles estão trabalhando em todo o conjunto de dados para realizar o aprendizado, ou seja, em lotes, enquanto na seção 4 passam para o gradiente estocástico a seguir, que pode ser usado como um algoritmo de aprendizado on-line.
Nunca usei o gradiente estocástico como um algoritmo de aprendizado on-line; no entanto, é possível simplesmente interromper o processo de otimização no meio de uma execução de aprendizado e ele ainda é um modelo útil. Para conjuntos de dados muito grandes, isso é útil, pois você pode medir a convergência e interromper o aprendizado cedo. Você pode usar o gradiente estocástico a seguir como método de aprendizado on-line, pois atualiza o modelo para cada novo ponto de dados, como acho que você mesmo disse. Embora eu tenha cuidado em chamá-lo "por dados de treinamento". Os dados de treinamento são um conjunto de dados, não um ponto de dados, mas acho que entendi você desde que você disse " por dados de treinamento".
fonte
Lote versus aprendizado on-line
Os modos on-line e lote são ligeiramente diferentes, embora ambos tenham bom desempenho em superfícies de desempenho parabólico. Uma grande diferença é que o algoritmo em lote mantém os pesos do sistema constantes enquanto calcula o erro associado a cada amostra na entrada. Como a versão on-line atualiza constantemente seus pesos, seu cálculo de erro (e, portanto, estimativa de gradiente) usa pesos diferentes para cada amostra de entrada. Isso significa que os dois algoritmos visitam conjuntos diferentes de pontos durante a adaptação. No entanto, ambos convergem para o mesmo mínimo.
Observe que o número de atualizações de peso dos dois métodos para o mesmo número de apresentações de dados é muito diferente. O método on-line (LMS) atualiza cada amostra, enquanto o lote atualiza cada época, ou seja,
Atualizações do LMS = (atualizações em lote) x (número de amostras no conjunto de treinamento).
O algoritmo de lote também é um pouco mais eficiente em termos de número de cálculos.
fonte
Em resumo,
Online: Aprendizado baseado em cada padrão, conforme observado.
Lote: aprendendo sobre grupos de padrões. A maioria dos algoritmos é em lote.
Fonte: http://machinelearningmastery.com/basic-concepts-in-machine-learning/
fonte