论文阅读:An Attribute-aware Attentive GCN Model for Attribute Missing in Recommendation

在这里插入图片描述
Author:Fan Liu, Zhiyong Cheng, Lei Zhu, Chenghao Liu, and Liqiang Nie
论文地址

Motivation:

协同过滤算法像(MF)在学习用户和物品表征上已经取得了巨大成功,但是当交互数据非常稀疏时,不会得到好的性能。一个有效的解决方案是利用辅助信息(像评论、图片、社会关系和属性),这可以有效地对用户偏好和物品特征进行建模。

属性是辅助信息中最常用的信息。有两种范式利用属性:1.把所有属性变换成one-hot\multi-hot编码,像模型(lr、FMs、Wide&Deep等),但是有个问题是特征变得非常稀疏导致学习到可靠参数变得非常困难。2.把每个属性嵌入到一个k维的特征向量中,然后把所有属性的特征向量concat起来作为输入,像(NFM、DeepFM、AFM等)。

对于上述所说的处理属性信息的两个方法还存在一些不足:

  1. 这些方法不能处理属性缺失问题。常见的处理缺失属性有两种方式,1).缺失的属性替换为默认值“Other”,这种方法将“Other”用于具有不同属性的不同物品,并不能正确描述物品会误导表征的学习。2).把缺失的属性忽略,这种也是不合理的,也会误导表征的学习。
  2. 对于用户和物品的属性信息同等对待,如有些用户电影喜欢主演,有些用户喜欢导演,所以用户或者物品对于属性的需要重要程度是不同的。

受上述分析的启发,提出了An Attribute-aware Attentive Graph Convolution Network(A2-GCN)。

Contribute:

1.梳理已经提出的属性感知的推荐模型并分析了他们的不足。受启发提出了A2-GCN模型,可以自然的处理属性缺失的问题。

2.强调了属性信息对于用户偏好的重要性并设计了一个新颖的属性感知注意力机制。

3.验证大量实验证明所提出的方法效果优越。

Method:

在这里插入图片描述

这篇工作利用GCN技术实现,把数据集(用户、物品、物品属性)构成图结构,图的实体为用户、物品、物品属性,用户和交互物品相连,物品和物品附属的属性相连,如上图所示。

Item Representation Learning

在这里插入图片描述(1)
在这里插入图片描述(2)
在这里插入图片描述(3)

在这里插入图片描述(4)

m(v<-u)表示user到item传播的信息。
对于item表征,消息包括自身节点(3)、邻居user表征的传播(1)、item自身属性表征的传播(2)。如上图所示,3种消息的聚合。

在这里插入图片描述(5)

在这里插入图片描述(6)
在这里插入图片描述(7)

(5)、(6)分别计算的是user对item的影响、attribute对item的影响,其中g函数是cosine similarity。
(7)是计算item每一个聚合的部分的权重(注意力权重),换句话说,就是item更需要那个属性促进对它表征的学习。

User Representation Learning

在这里插入图片描述(8)
在这里插入图片描述(9)

同item representation learning一样的,(8)是item对user的消息传递
(9)是user representation的聚合过程,包括user自身和item对user的消息传递。

在这里插入图片描述(10)
在这里插入图片描述(11)
在这里插入图片描述(12)
在这里插入图片描述(13)

(10)、(11)是常规计算注意力方式,同item representation的attention mechanism一样的方式。
(12)是设计的attribute-aware attention mechanism,这个假设是用户对于物品的属性也是关心的,所以物品的属性也会影响用户。把用户交互的物品,该物品所属的属性也加入到用户表征的学习。设计出了(12)。(13)是对于交互的物品属性,该物品的所有属性表征做一个mean-pooling形成在这里插入图片描述

Model Learning :BPR Loss

在这里插入图片描述
在这里插入图片描述

Matrix-form

在这里插入图片描述
在这里插入图片描述

Dataset:

在这里插入图片描述

Baselines:

BPR-MF 、NeuMF、NGCF、NFM、Wide&Deep、ACCM、ENSFM

1.不同算法比较性能
在这里插入图片描述
2.K是属性缺失的比例,证明a2-gcn可以处理属性缺失问题,且当属性缺失过多时,影响不大。
在这里插入图片描述
3.消融实验
GCNb:去除attention和atttibute,纯GCN模型,只有user-item交互。
A-GCNam:去除attribute,仅含attention。
A-GCNatt:去除attention,仅含attribute。
A2-GCNv:去除公式(12)提出的attribute-aware attention mechanism,使用常规的attention。
在这里插入图片描述

4.测试数据集稀疏度的对模型的影响。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

aaHua_

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值