#Paper Reading# Personalized Context-aware Re-ranking for E-commerce Recommender Systems

论文题目: Personalized Context-aware Re-ranking for E-commerce Recommender Systems
论文地址: https://arxiv.org/abs/1904.06813
论文发表于: arxiv,2019.04

论文大体内容:
本文主要提出了PCRM(Personalized Context-aware Re-ranking Model)模型,将Google BERT中使用的Transformer结构应用到Listwise的Learning To Rank里面,并在offline和online都取得不错的效果。

1. 传统的pointwise方法,只能独立给每个item打分,没有考虑到item之间的相互关系,以及user的意图,所以本文提出了一个个性化context-aware的rerank模型,主要是使用Transformer结构来优化listwise。其中Transformer使用了self-attention的方法来对list里面的每一对item的关系进行建模;

2. 本文主要工作包括:
①PCRM首次引入个性化的信息到rerank的模型中;(传统CTR模型的最后一个hidden layer作为PCRM的特征)
②使用了Transformer结构,相比RNN更高效;
③发布了一个手淘的large-scale数据集,共1400万+样本,24GB;
④做了offline和online的evaluation;

3. 作者认为在传统的pointwise CTR模型后,还得考虑2个关系,才能使得推荐结果更好:
①Local context information:item之间的依赖关系;
②Global context information:user和item之间的交互关系

4. PCRM模型的整体框架如图,主要包括以下3个部分:
①Input Layer
-Local context information的X;
-Global context information的PV,是通过预训练传统CTR模型的最后一个hidden layer;
-Position embedding;
②Encoding Layer,就是使用了Transformer[1]的结构,包括Multi-Head Attention(多个self-attention的ensemble)、FFN;
③Output Layer,对每个item进行softmax,给每个item打rerank分(一次请求10个item是一条样本-->Lisewise),使用了Adam算子;

实验
5. Dataset

6. Baseline
LTR
①SVMRank;
②LambdaMart;
③DNN-based LTR(WDL);
Rerank
④DLCM

7. 评测方法
offline
①Precision@k;
②MAP@k;
online
③PV;(曝光)
④IPV;(点击)
⑤CTR;(IPV/PV)
⑥GMV;

8. 实验结果


参考资料: 
[1] Transformer理解 https://zhuanlan.zhihu.com/p/48508221

 

以上均为个人见解,因本人水平有限,如发现有所错漏,敬请指出,谢谢!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值