简介
WWW 2021
非常新的论文,而且作者是国内非常有名的组。
我主要分享一些我认为比较重要的干货,如果同学想很详细的了解的话还请从网上下载或者评论里面发给我邮箱。
Introduction
当前的基于图卷积的方法主要存在以下两个方面的drawbacks:
- user intents
对于用户意图的研究在现有方法中鲜有提到,没有一种方法考虑了更细粒度intent的user-item关系。
作者的工作将更细粒度的考虑user-item之间的intent特点。 - relational paths
SOTA方法中大多数考虑node之间的传递和聚合,鲜有考量传递路径中path的影响。
本文将探索关系的依赖性,进而来保证long-range语义的连接。
综上所述,本文的工作分为两个重要的部分:
- user Intents
在上图中,左边的部分是现有的方法,这是一个包含user items KGEntities三种节点,user-item 、item-kgentity两种边的异构图。
作者认为此时左边的这幅图缺少fine-grained的intent建模,于是右边是本文的工作,增加了
p
1
,
p
2
p_1, p_2
p1,p2两个显式的user intents(这里图中只画了两个,这其实是一个超参,可以进行调整的)。
对于p的表示是根据item-enitty的联系得到的:
这里说一下我自己的理解,同样我们用上图举例,什么是user Intents:
这里我们根据kg relations可以看出这应该是一个电影推荐场景,然后对于用户我们认为,有的用户关注同一个影星star,会因为两个不同电影有同一个演员而看另一部电影。
那么同样就存在有的用户因为另一部电影有相同的导演而选择看另一部电影。
这就是user intent利用relation建立p的解释,当然这是我自己的理解,欢迎大家指正。
- Relational paths
第二个部分就是relational paths:
如上图所示,左边表示现有的研究一般是node-based 聚合,这里作者考虑relation的关系,如右图所示。
Main contributions
- 在基于KG的推荐中揭示交互背后的用户意图,提高模型容量和解释能力
- 提出了一个新的模型KGIN,该模型考虑了GNN范式下更细粒度的意图和关系路径的远程语义下的用户项关系
- 在三个基准数据集上进行实证研究,以证明KGIN的优越性
Model
同样是两个最重要的部分,我们分别讲清楚这两个部分就明白了这个模型的核心部分。
- user intent modeling
这里作者只是增加了一个p节点层,所以只要明白如何获得p就可以了:
这里使用的方法就是将p和KG中的所有relation进行attention处理,然后进行求和。
我理解每个intent p主要是对于不同的relation的关注程度。
但是这里又一个问题,就是很可能最后得到的每个p是相似的,这种情况是不正确的,作者提出Distance correlation来解决这个问题:
可以这么理解,训练的过程中希望
L
I
N
D
L_{IND}
LIND的数值越小越好。也就是使得每个p的相关性越小越好,也就是越独立越好。
- relational path-aware aggregation
这里可以看到一条完整的路径,从v1和v2到i1然后再到u1。
计算一层可以理解为向前传递一层,然后在获取user representation的时候又一个
β
\beta
β参数,用来衡量不同的用户对于不同的intent p的权重:
然后我们将上面这幅图的左边和右边放在一起:
每一条绿色的path就是relational paths,他在计算的时候的迭代过程是:
这里看上去非常晦涩,就像我上面提到的每一层的计算就相当于向前传递了一次,然后我们用公示来表示图的迭代更新计算就可以用下面的这个式子来表示。当然这里看不懂也没有关系,这个思路并不是表面上这么难理解,而且也不是这篇论文主要问题。
Model prediction
这里并不再赘述。
Model optimization
在模型的loss设计上有两个部分组成。
首先用了BPRloss,他的思想是希望正样本和负样本的“距离”越大越好。
然后在加上前面提到的
L
I
N
D
L_{IND}
LIND。
Experiments
- dataset
- result
对于kg中跳数的验证:
对于independence modeling的验证:
大家共勉~~