Digamos que eu tenha um classificador de regressão logística. No aprendizado em lote normal, eu teria um termo regularizador para evitar o excesso de ajustes e manter meus pesos pequenos. Eu também normalizava e dimensionava meus recursos.
Em um ambiente de aprendizado on-line, estou recebendo um fluxo contínuo de dados. Eu faço uma atualização de descida de gradiente com cada exemplo e depois a descarto. Devo usar o termo de escala e regularização de recursos no aprendizado on-line? Se sim, como posso fazer isso? Por exemplo, não tenho um conjunto de dados de treinamento para escalar. Também não tenho a validação definida para ajustar meu parâmetro de regularização. Se não, por que não?
No meu aprendizado on-line, recebo um fluxo de exemplos continuamente. Para cada novo exemplo, faço uma previsão. Então, na próxima etapa, obtenho o destino real e faço a atualização da descida do gradiente.
--power_t
e--initial_t
são opções independentes globais (não por recurso).--sgd
somente reverte para o SGD "clássico". IOW:--sgd
apenas cancela--invariant
,--normalized
e--adaptive
(o que implica, por característica-aprendizagem-taxas separadas)Este artigo descreve uma técnica para regularização on-line que se aplica a vários algoritmos, incluindo regressão logística: http://ai.stanford.edu/~chuongdo/papers/proximal.pdf
fonte
sim, você certamente precisa de regularização ... isso também ajuda na descida do gradiente (e inicializa a taxa de aprendizado para 1 / C)
veja, por exemplo, artigo SGD-QN http://leon.bottou.org/papers papers de bottou
você realmente não explicou o que quer dizer com aprendizado on-line: por exemplo, para cada ponto você obtém o valor-alvo? Não sei como você incorporaria ... pesquisando C ... acho que você teria vários classificadores com diferentes termos de regularização e acompanharia o erro de previsão (antes de atualizar os pesos)
fonte