卷积神经网络流程图_斯坦福大学最新论文|知识图卷积神经网络在推荐系统中的应用...

推荐系统广泛应用于互联网应用和服务中。传统的协同过滤推荐算法通常会遇到用户-物品交互的稀疏性问题和冷启动问题,可以通过引入额外的信息来解决,如用户/物品属性信息和社交网络。近年来,为了解决上述问题,一些学者考虑将知识图谱与推荐系统相结合。

具体来说,推荐系统中的每个物品可以对应为知识图谱中的实体,而实体与实体之间的连接路径则提供了物品之间丰富的连接关系。利用这些信息可以一定程度减轻稀疏性及冷启动,增加推荐系统的可解释性。

本文介绍斯坦福大学最新论文“Knowledge Graph Convolutional Networks for Recommender Systems with Label Smoothness Regularization”,如何将图卷积神经网络(GCN)应用到基于知识图谱的推荐系统中。

论文摘要

Knowledge graphs capture interlinked information between entities and they represent an attractive source of structured information that can be harnessed for recommender systems. However, existing recommender engines use knowledge graphs by manually designing features, do not allow for end-to-end training, or provide poor scalability. Here we propose Knowledge Graph Convolutional Networks (KGCN), an end-to-end trainable framework that harnesses item relationships captured by the knowledge graph to provide better recommendations. Conceptually, KGCN computes user-specific item embeddings by first applying a trainable function that identifies important knowledge graph relations for a given user and then transforming the knowledge graph into a user-specific weighted graph. Then, KGCN applies a graph convolutional neural network that computes an embedding of an item node by propagating and aggregating knowledge graph neighborhood information. Moreover, to provide better inductive bias KGCN uses label smoothness (LS), which provides regularization over edge weights and we prove that it is equivalent to label propagation scheme on a graph. Finally, We unify KGCN and LS regularization, and present a scalable minibatch implementation for KGCN-LS model. Experiments show that KGCN-LS outperforms strong baselines in four datasets. KGCN-LS also achieves great performance in sparse scenarios and is highly scalable with respect to the knowledge graph size.

问题定义

给定用户集合 U={u1,u2,...} 以及物品集合 V={v1,v2,...}.物品与用户的交互矩阵可以定义Y[u,v]=yu,v , yu,v =1表示⽤户u与物品v有交互。同时还存在知识图谱 G,其中每个元素为一个三元组(h,r,t),h∈E, r∈R, t∈E 分别为头实体、关系、尾实体 。按照物品 v 在知识图谱中的对应关系,实体集合可以表示为物品集合与非物品集合的并集 E = V ⋃ E V ,根据上述定义,任务的⽬标可以表示为学习一个预测函数如下:

10fedd06bb0600e74f6bb25653cfbb2d.png

其中如下函数表示用户与物品之间有交互的概率。

1b92f018f8e6281c289c2c757784ab7f.png

模型介绍

作者为了解决此类问题提出了知识图卷积⽹络KGCN-LS, 其关键思想就是针对不同用户将知识图谱转换为⼀个用户个性化的加权图,并利用GCN学习出每个物品的表示向量,然后再根据用户特征向量计算出用户与物品有交互的概率。

具体来说,⾸先对每个用户为知识图谱每种关系算出⼀一个关系评分 su(r) = g(u, r) ,其中 u ,r 分别表示用户及关系的特征向量。以此来刻画用户对不同关系的偏好程度。这样原知识图谱 G 可以⽤用⼀个特定用户的邻接矩阵表示 Au ∈ R∣E∣×∣E∣,其中每个元素为对应边的关系评分,然后就可以应用GCN对每个节点的特征向量进行传播,生成最终的表示向量如下:

7b76c9ed886748b6d96058f79d02f80f.png

之后用一个预测函数计算出如下内容:

53151f7c58e9f9e5f38c5c4e27ae97a2.png

vu = H(L)[v, :]为最后一层GCN得出的物品V的表示向量。

除此之外,为了了防⽌过拟合,论⽂还提出了了一个label- smoothness的正则化策略。基本思想是用对每个有label的节点,利用标签传播的方式为每个节点生成⼀个节点标签预测值,然后优化标签预测值与真实标签的差值。标签传播的过程分为如下两步:

  • 将每个节点的标签设定为邻居标签的加权平均值,权重为对应边的关系评分如下:

679d27a5bb765ee84da919beb6ddcb7b.png
  • 将在物品集合中节点的标签设为原始标签: lu(V) ← Y[u, V]⊤,迭代重复以上过程即可得到预测标签lv∗,这样相应的正则化项可以表示为:

ea4e1fc89b2883f5061d2377db5858ff.png

最终的优化目标为:

d0123fe5f46d1a5440af0d4f09f257bc.png

γ∥F∥2 为L2 正则化项。 J(Y^ , Y ) 表示GCN传播层。

优化上述损失函数需要整个知识图谱及用户集合作为输入,在实际中很难应用。因此作者提出了算法的minibatch版本。即借用GraphSAGE的思路,为每个节点的邻居节点进行预先采样,然后只在采样的邻居集合中进行特征传播及标签传播。算法流程图(图1):

6ea12517fdc2e3a918a9819a3fbc51da.png

实验结果

作者在电影推荐,书籍推荐,音乐推荐,食物推荐4种推荐系统数据集上进行了测试。结果如下图(图2),其中KGCN-LS为作者提出来的算法,KGCN-avg为上述算法的变种:节点的特征传播时直接对邻居特征求平均值,不计算关系评分。可以看出KGCN-LS在大部分数据集中均取得了最优效果。

c0c60d4b8ea579ae3b5376252232baab.png

作者还探究了label-smoothness正则化 对最终结果的影响,如下图(图3), 当 λ (label-smoothness 正则化项的系数)的值从 0变为5时,推荐效果先上升后下降,说明label-smoothness 正则化对模型推荐效果有一定提升作用。

6a011d4129ef76a19dd74b6ed0c920fc.png

学术头条已建立微信交流群,想进群的同学请加学术君微信:AMiner308,记得备注:名字+单位/学校噢!

[关于转载]:本文为“学术头条”原创文章。转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“SciTouTiao”微信公众号。谢谢您的合作。

27704f83e2cb0028f861464b1c4525df.png

分享干货

AMiner迄今为止已发布18期AI系列研究报告,您可在后台回复对应数字获取报告。

推荐阅读:

阿里电商场景下的大规模异构网络表示学习

Facebook AI Research的XLM模型:将BERT扩展成跨语言模型

清华大学人工智能研究院成立智能机器人研究中心,孙富春教授任中心主任

ICLR 2019论文主题|RL最受欢迎,RNN下降幅度最大,GAN仍在继续发展

清华大学和微软研究院联合发布的“开放学术图谱(OAG)2.0版本”数据完善

WWW2019正在进行时 围观网络表示学习tutorial(附500页完整PPT 加送智库)

微信公众号菜单栏为大家设置了“论文推荐”和“优质分享”专栏,“北京讲座”移至“优质分享”专栏内,欢迎大家关注。

89696158184fdd8c638e2e117db38aeb.png

学术头条

发掘科技创新的原动力

您的转发就是我们最大的动力

点击阅读原文访问AMiner官网

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值