WSDM2019|门限注意力自编码在内容感知推荐中的应用(已开源)

文章提出了一种名为GATED(门限注意力自编码模型)的方法,用于解决个性化推荐系统中的稀疏反馈和异构数据融合问题。GATED通过神经门限机制学习商品内容和评价的融合表示,利用商品间的关系推理用户偏好。在四个真实数据集上的实验显示,该模型在topN推荐任务中表现优秀,并且其注意力模块提供了可解释性。代码已在GitHub开源。
摘要由CSDN通过智能技术生成

Gated Attentive-Autoencoder for Content-Aware Recommendation

Chen Ma, Peng Kang, Bin Wu, Qinglong Wang, Xue Liu

McGill University, Zhengzhou University

http://xxx.itp.ac.cn//pdf/1812.02869.pdf

互联网服务以及移动设备的快速发展使得个性化商品推荐的需求非常强烈。但是,由于用户和商品增长速度很快,个性化推荐系统仍然面对几个挑战性问题,稀疏的隐式反馈比较难利用;异构数据比较难融合。

作者们为了解决这几个挑战,提出一种门限注意力自编码模型(GATE),它能够学习商品内容以及二值评价的融合隐含表示,该网络结构基于神经门限机制。

基于融合的表示,该模型能够利用商品之间的近邻关系,这有助于推理用户偏好。该模型在自编码中融合了单词级别和近邻级别的注意力模块。单词级别的注意力从商品词序列中学习商品的隐含表示,对于比较有用的单词赋予比较大的注意力权重。近邻级别的注意力基于加权的方式考虑商品的近邻,进而学习商品近邻的隐含表示。

作者们在四个真实数据集上进行了实验,并跟几个STOA方法利用多个验证方法进行对比。实验结果不仅表明该模型在topN推荐中的有效性,还对注意力模块提供了可解释的结果。

GATE网络结构图示如下

这篇文章的主要贡献如下

大家所熟知的电影推荐问题图示如下

目前已有的几种主流方法有以下几个

基于自编码以及内容注意力的模型结构图示如下

自编码的结构,编码过程,解码过程以及目标函数形式如下

基于单词的注意力模块背景及描述如下

基于单词的注意力模块图示如下

门限层的结构图示及函数表示如下

近邻注意力模块描述如下

近邻注意力模型的细节描述如下

损失函数及预测方式如下

数据集及评估方式如下

参数设置如下

参与对比的几种方法有

几种方法的效果对比如下

图表形式的效果对比如下

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值