#Paper Reading# Deep Learning Recommendation Model for Personalization and Recommendation Systems

论文题目: Deep Learning Recommendation Model for Personalization and Recommendation Systems
论文地址: https://arxiv.org/abs/1906.00091
论文发表于: arxiv 2019

论文大体内容:
本文主要提出了deep learning recommendation model(DLRM)的模型,来使用pytorch进行分布式训练,效果也达到state-of-art;

Motivation:
该模型主要是用于推广pytorch框架,并开源给大家解决推荐引擎的挑战,工业届可方便使用。

Contribution:
本文作者提出的DLRM模型,能够达到轻量级和速度快,便于工业届应用。


1. DLRM模型结构如下图,主要是将稀疏特征用embedding,如id类;dense特征用MLP,如统计特征;

2. 相比DeepFM、xDeepFM等模型,DLRM模型能够减少模型的维数;
DLRM specifically interacts embeddings in a structured way that mimics factorization machines to significantly reduce the dimensionality of the model by only considering cross-terms produced by the dot-product between pairs of embeddings in the final MLP.

3. 本文还设计了一种并行化MLP的方式使得模型更快;


实验
3. Dataset
Criteo Ad Kaggle数据集[1],是Kaggle比赛的数据集;

4. 实验结果


参考资料: 
[1] https://www.kaggle.com/c/criteo-display-ad-challenge


以上均为个人见解,因本人水平有限,如发现有所错漏,敬请指出,谢谢!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值