ATM|注意力转移模型在预测下一个商品中的应用

ATM是一种新的推荐系统模型,通过注意力机制探索高阶序列信息,改善了TransRec的短期偏好建模,提高了预测用户下一次购买商品的准确性。位置感知的注意力机制允许模型根据商品的不同顺序学习权重,实现在四个真实数据集上优于现有方法的表现。
摘要由CSDN通过智能技术生成

ATM: An Attentive Translation Model for Next-Item Recommendation

Bin Wu, Xiangnan He, Zhongchuan Sun, Liang Chen, and Yangdong Ye

Zhengzhou University, University of Science and Technology of China, Sun Yat-Sen University

http://staff.ustc.edu.cn/~hexn/papers/TII19-Attentive-Trans.pdf

预测用户下次会购买什么商品在推荐系统中非常重要。

基于分解的方法在推荐系统中比较常用,但是,最近的一些研究表明,内积不满足三角不等式,这可能会破坏模型的泛化能力。

TransRec能够克服这种问题,它能够学习距离度量,来预测用户商品交互的强度。但是,这种方法只利用了最近消费的商品对用户的短期偏好进行建模,这有损模型的准确性。

这篇文章提出一种高效方法,ATM,注意力迁移模型,该模型能够明确探索高阶序列信息,进而可以用于下一次购买商品推荐。该模型需要构建基于用户的转移向量,用来解释多个最近购买的商品,这样可以对用户短期偏好的更多信息进行编码,而不是最近购买的商品。

为了将多个商品聚合到一个表示中,作者们设计了一种位置感知的注意力机制,对不同顺序的商品可以学到不同的商品权重。

四个真实数据集上的实验表明,本文方法优于STOA方法。

这篇文章所提模型跟TransRec的对比图示如下

这篇文章的主要贡献有以下三点

问题描述如下

下面是一些符号约定

个性化注意力转移模型定义如下

用户转移嵌入的高阶马尔可夫链图示如下

作者们并不是利用简单的注意力机制,而是融入了位置因素,具体解释如下

ATM结构图示如下

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值