DMT推荐算法笔记

https://github.com/guyulongcs/CIKM2020_DMT

1、Motivation
在这里插入图片描述
2、Method
Deep Multifaceted Transformers(DMT)算法,使用多个Transformers同时建模用户多种行为序列,利用MMoE优化多个目标。另外,探索了消偏学习来减轻训练数据的选择偏差。
在这里插入图片描述

DMT包含3部分:Deep Multifaceted Transformers, Multi-gate Mixture-of Experts (MMoE) layers and a Bias Deep Neural Network:
1 Deep Multifaceted Transformers

Deep Multifaceted Transformers
为了捕捉用户的多种兴趣,使用独立的Deep Interest Transformers,建模用户的点击序列、购物车序列和购买序列来学习用户相应的短期、中期和长期的兴趣向量。

Deep Interest Transformer
对于每个行为序列,使用Deep Interest Transformer建模用户实时兴趣,将其表示为兴趣向量。encoder建模序列中商品的关系,decoder学习用户关于目标商品的兴趣向量。

Encoder. encoder对行为序列的embedding使用self-attention block,使得序列里的每个商品能与输入序列里的全部sku交互。self-attention机制建模用户行为序列中任意两个商品的相互关系,能够更好地从历史行为中学习用户的兴趣。

Decoder. 由于用户的兴趣是多样的,decoder使用目标商品做为query,encoder的输出做为keys和values。decoder学习目标商品和历史序列中每个商品的attention score,为每个目标商品学习唯一的兴趣表示。兴趣向量随着不同的目标商品而发生变化,提高了模型的表达能力。

2 Multi-gate Mixture-of-Experts Layers

在电商推荐系统中,通常有不同的学习目标,例如CTR、CVR和GMV。排序系统应该能够预估这些不同目标,结合这些目标得到一个最终的排序分数。为了刻画多任务的关系,使用MMoE来进行多目标排序。DMT在Deep Multifaceted Transformers层的输出后添加MMoE。

3 Bias Deep Neural Network

由于曝光的商品来源于之前的排序系统,并且用户会有选择偏差,排序模型使用隐式反馈数据进行训练会是有偏的。本文主要研究了电商系统中的两种选择偏差:Position bias 和Neighboring bias。Position bias是指用户倾向于点击排在靠前的商品。Neighboring bias是指商品被点击的概率受其附近的商品所影响。DMT使用Bias Deep Neural Network建模选择偏差。网络输入是bias特征。

4 Model Training and Prediction

Training 在训练阶段,对于每个任务 图片 ,预估分数 图片 由从多任务学
习层的 图片 和深度偏差网络 图片 使用sigmoid函数得到。对于每个任务使用交叉熵损失函数,总的loss 图片 为每个目标的loss加权和:、在这里插入图片描述
3、Experiments
在这里插入图片描述
4、Conclusions
在这里插入图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值