ATM: An Attentive Translation Model for Next-Item Recommendation
Bin Wu, Xiangnan He, Zhongchuan Sun, Liang Chen, and Yangdong Ye
Zhengzhou University, University of Science and Technology of China, Sun Yat-Sen University
http://staff.ustc.edu.cn/~hexn/papers/TII19-Attentive-Trans.pdf
预测用户下次会购买什么商品在推荐系统中非常重要。
基于分解的方法在推荐系统中比较常用,但是,最近的一些研究表明,内积不满足三角不等式,这可能会破坏模型的泛化能力。
TransRec能够克服这种问题,它能够学习距离度量,来预测用户商品交互的强度。但是,这种方法只利用了最近消费的商品对用户的短期偏好进行建模,这有损模型的准确性。
这篇文章提出一种高效方法,ATM,注意力迁移模型,该模型能够明确探索高阶序列信息,进而可以用于下一次购买商品推荐。该模型需要构建基于用户的转移向量,用来解释多个最近购买的商品,这样可以对用户短期偏好的更多信息进行编码,而不是最近购买的商品。
为了将多个商品聚合到一个表示中,作者们设计了一种位置感知的注意力机制,对不同顺序的商品可以学到不同的商品权重。
四个真实数据集上的实验表明,本文方法优于STOA方法。
这篇文章所提模型跟TransRec的对比图示如下
这篇文章的主要贡献有以下三点
问题描述如下
下面是一些符号约定
个性化注意力转移模型定义如下
用户转移嵌入的高阶马尔可夫链图示如下
作者们并不是利用简单的注意力机制,而是融入了位置因素,具体解释如下
ATM结构图示如下