Máquinas de fatoração com conhecimento de campo

Respostas:

2

Parece que você está pedindo uma descrição de alto nível. Se você consultar os slides vinculados aos slides da postagem original, há uma comparação entre FM (slide 11) e FFM (slide 12).

Como exemplo rápido, se você está aprendendo sobre usuários e filmes, o FM pode ter o seguinte fator:

w_{user_1}*w_{movie_1}*... + w{user_1}*w_{genre_1}*...

FFM teria:

w_{user_1, movies}*w_{movie_1, users}*... + w{user_1, genres}*w_{genre_1, users}*...

A principal diferença é que, em FM, o w_{user_1}coeficiente é o mesmo em ambos os termos - existe uma única noção de usuário. No FFM, você aprende um separado w_{user_1}para cada contexto, por exemplo, se está interagindo com filmes ou gêneros. Observe que não é aprendido separadamente para cada filme ou gênero em particular, mas para filmes e gêneros em geral. Ou seja, ele aprende separadamente o contexto do usuário para cada tipo de interação.

Observe também que w_{movie_1}foi para w_{movie_1, users}desde esse termo está interagindo com w_{user_1}, um usuário.

ZakJ
fonte
2

ZzZkzXK: =zZkz

QK×(K+1)/2

QQWTWWeu×K1euKWQ

QQzqzEu,zjzEu,zjQqzEu,zjzEu,zjWjTWEuWEueu×KWEuQ

QK×euK×eu×|Z|K×(K+1)/2

kalu
fonte
1

Máquinas de fatoração padrão também têm campos. A "novidade" aqui parece ser o uso dos recursos GBDT e a aplicação dos truques de hash. Parece que não foi tão bom: confira o intervalo de minutos no desempenho no último slide.

Emre
fonte
Segundo os autores, existe de fato uma característica de reconhecimento de campo no modelo, relativa à implementação padrão - é declarada nos fóruns do kaggle. Eu simplesmente não conseguia seguir o que isso significava e qual era a diferença.
B_Miner
Com base no slie 14, parece que eles basearam sua solução neste documento ( Conjunto de Filtragem Colaborativa e Modelos de Engenharia de Recursos para Previsão de Taxa de Cliques ).
Emre