CNAN知识图谱辅助推荐系统

CNAN知识图谱辅助推荐系统

文章介绍了一个基于KG的推荐系统模型,代码也已开源,可以看出主要follow了KGNN-LS 。算法流程大致如下:

img

1. 算法介绍

算法除去attention机制外,主要的思想在于:user由交互过的item来表示、item由交互过的user交互过的item表示。如下图:

img

即user自身是不具备embedding表示的,完全靠KG部分。 这样的好处在于可以很方便的处理新增加的user,并不需要重新训练新用户的embedding。

user的initial entity set(即该user交互过的item id在KG的id)定义为:

img

item的initial entity set定义为:

img

�� 是item交互过的user交互过的item集合,公式3将item id转化为在KG的id,即对齐操作。

由此,我们相当于得到了user、item的邻居set,再由这些邻居set在KG中延伸出 � 阶邻居做聚合,第 � 阶tail entity集合与三元组集合定义为:

img

img

符号 � 代表某个user或item。如下图所示,多个Layer即代表多阶邻居:

img

这一步在算法执行中会占据相当大的时间。

2.聚合方式

对于某个triplet (��ℎ,�,���) 而言,我们定义从tail entity ��� 沿着 � 聚合到head entity �ℎ� 得到的attentive embedding �� :

img

img

img

CKAN的聚集首先将不同layer(总共 � 个layer)的三元组分别聚集得到 �� 、再将处于相同layer的 �� 累加到一起作为该layer的表示:

img

接着,除去这 � 个向量外,还会将initial entity set的embedding累加起来作为第0阶layer表示:

img

对于target item而言,它自身也是entity,所以单独多引入一个origin embedding:

img

因此,target user和target item拥有如下embedding set:

img

最后聚合target user/target item的embedding set得到final embedding。正如图一的Knowledge-aware Attentive Network所示。聚合的方式有三种:

img

可以看出CKAN的聚集和其他的GNN算法不同,一般的GNN聚集是聚集多次、最后多阶信息都会聚集在target node上。训练采用cross-entropy loss。

3.实验

实验对比如下:

img

loss。

3.实验

实验对比如下:

[外链图片转存中…(img-XHaKhNr4-1709550222389)]

数据集均是采用KGNN-LS使用的数据集

  • 6
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值