论文《Behavior Sequence Transformer for E-commerce Recommendation in Alibaba》

阿里BST

论文地址:https://arxiv.org/pdf/1905.06874.pdf

19年阿里这篇推荐论文也是紧贴热点,将Transformer应用到提取用户序列上面,提出Transformer Layer,提取用户序列信息。

网络结构图如下
在这里插入图片描述
Transformer Layer其实是Transformer的encoder部分
在这里插入图片描述
用户序列的输入分为2种,一种叫Sequence Item Features,一种叫Positional Features
Sequence Item Features:包括 item_id 和 category_id
Positional Features:其实就是Transformer position Embedding的输入,item v i v_i vi的的位置特征值表示为 p o s ( v i ) = t ( v t ) − t ( v i ) pos(v_i) = t(v_t) - t(v_i) pos(vi)=t(vt)t(vi) t ( v t ) t(v_t) t(vt)表示当前推荐时间, t ( v i ) t(v_i) t(vi)表示点击item v i v_i vi时间

论文还实验了多个Transformer block的效果,发现1个block效果最好,给出的解释是用户序列相比NLP中的句子要简单些,一个block就能学到大部分信息。
在这里插入图片描述

加这样的结构比较简单,可以快速在业务中尝试,是个不错的选择

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值