Estou procurando encontrar pesos pré-treinados de modelos já treinados, como dados do Google Notícias, etc. Achei difícil treinar um novo modelo com quantidade suficiente (10 GB etc.) de dados para mim. Portanto, quero me beneficiar do aprendizado de transferência, no qual eu seria capaz de obter pesos de camada pré-treinados e treinar esses pesos em minhas palavras específicas de domínio. Então, definitivamente levará relativamente menos tempo no treinamento. Qualquer tipo de ajuda será muito apreciada. Desde já, obrigado :)
fonte
model = Word2Vec.load(fname) # you can continue training with the loaded model!
Representações distribuídas (luva) baseadas no treinamento em um corpus grande estão disponíveis diretamente no grupo da PNL de Stanford. Você pode usar essas combinações de palavras diretamente no seu aplicativo (em vez de usar 1 vetores codificados a quente e, em seguida, treinar a rede para obter as combinações). Se sua tarefa não for muito especializada, começar com esse conjunto de incorporações funcionará bem na prática.
fonte
Dê uma olhada neste documento [PDF] . O foco principal é a tarefa NER, mas a idéia é a mesma - pegue vetores word2vec pré-treinados e adapte-os para uma aplicação específica.
Muitos aplicativos comuns baseados em rede neural para PNL freqüentemente começam com vetores pré-treinados. Por exemplo, um artigo muito recente [PDF] (tarefas de marcação NER e POS) faz exatamente isso.
fonte
fonte