Gated Attentive-Autoencoder for Content-Aware Recommendation
Chen Ma, Peng Kang, Bin Wu, Qinglong Wang, Xue Liu
McGill University, Zhengzhou University
http://xxx.itp.ac.cn//pdf/1812.02869.pdf
互联网服务以及移动设备的快速发展使得个性化商品推荐的需求非常强烈。但是,由于用户和商品增长速度很快,个性化推荐系统仍然面对几个挑战性问题,稀疏的隐式反馈比较难利用;异构数据比较难融合。
作者们为了解决这几个挑战,提出一种门限注意力自编码模型(GATE),它能够学习商品内容以及二值评价的融合隐含表示,该网络结构基于神经门限机制。
基于融合的表示,该模型能够利用商品之间的近邻关系,这有助于推理用户偏好。该模型在自编码中融合了单词级别和近邻级别的注意力模块。单词级别的注意力从商品词序列中学习商品的隐含表示,对于比较有用的单词赋予比较大的注意力权重。近邻级别的注意力基于加权的方式考虑商品的近邻,进而学习商品近邻的隐含表示。
作者们在四个真实数据集上进行了实验,并跟几个STOA方法利用多个验证方法进行对比。实验结果不仅表明该模型在topN推荐中的有效性,还对注意力模块提供了可解释的结果。
GATE网络结构图示如下
这篇文章的主要贡献如下
大家所熟知的电影推荐问题图示如下
目前已有的几种主流方法有以下几个
基于自编码以及内容注意力的模型结构图示如下
自编码的结构,编码过程,解码过程以及目标函数形式如下
基于单词的注意力模块背景及描述如下
基于单词的注意力模块图示如下
门限层的结构图示及函数表示如下
近邻注意力模块描述如下
近邻注意力模型的细节描述如下
损失函数及预测方式如下
数据集及评估方式如下
参数设置如下
参与对比的几种方法有
几种方法的效果对比如下
图表形式的效果对比如下