Estimating Node Importance in Knowledge Graphs Using Graph Neural Networks

这是一篇将GNN运用在预测知识图谱(Knowledge Graph)节点重要性的文章,被KDD2019接收。文中提出了GENI模型,在GNN聚合信息的过程中只聚合一个标量(score)而不是聚合节点的embedding。

Introduction

KG
知识图谱可以看做是一个有向多关系图,并且节点之间可能存在不止一条边。

Given a KG, estimating the importance of each node is a crucial task that enables a number of applications such as recommendation, query disambiguation, and resource allocation optimization.
An importance score is a value that represents the significance or popularity of a node in the KG.

Method

table of symbols

在这里插入图片描述

score aggregation

在第 l l l层上,中心节点 i i i通过加权聚合邻居节点的score-estimation s ℓ − 1 ( j ) s^{\ell-1}(j) s1(j)来更新自己的score-estimation
s ℓ ( i ) = ∑ j ∈ N ( i ) ∪ { i } α i j ℓ s ℓ − 1 ( j ) s^{\ell}(i)=\sum_{j \in N(i) \cup\{i\}} \alpha_{i j}^{\ell} s^{\ell-1}(j) s(i)=jN(i){i}αijs1(j)为了获得初始的 s 0 ( i ) s^0(i) s0(i),模型通过一个全连接层将节点的embedding映射成初始的score: s 0 ( i ) =  Scoring N e t w o r k ( z ⃗ i ) s^{0}(i)=\text { Scoring} \mathrm{Network}\left(\vec{z}_{i}\right) s0(i)= ScoringNetwork(z i)
聚合过程是在聚合标量而不是向量,所以本文的GNN模型和其他大多数GNN模型不太一样。

Predicate-Aware Attention Mechanism

知识图谱一般可以写成三元组的形式:(subject, predicate, object),可以看做是图上一条边上的(起点,边的类型,终点)。为了更好地得到在聚合过程中的 α i j ℓ \alpha_{i j}^{\ell} αij的值,一个合理的想法是 α i j ℓ \alpha_{i j}^{\ell} αiji,j之间边的类型有关系。使用 p i j m p^m_{ij} pijm表示i,j之间第m条边的类型, ϕ ( p i j m ) \phi(p^m_{ij}) ϕ(pijm)是这条边的向量表示。通过attention机制计算出 α i j ℓ \alpha_{i j}^{\ell} αij

α i j ℓ = exp ⁡ ( σ a ( ∑ m a ⃗ ℓ ⊤ [ s ℓ ( i ) ∥ ϕ ( p i j m ) ∥ s ℓ ( j ) ] ) ) ∑ k ∈ N ( i ) ∪ { i } exp ⁡ ( σ a ( ∑ m a ⃗ ℓ ⊤ [ s ℓ ( i ) ∥ ϕ ( p i k m ) ∥ s ℓ ( k ) ] ) ) \alpha_{i j}^{\ell}=\frac{\exp \left(\sigma_{a}\left(\sum_{m} \vec{a}_{\ell}^{\top}\left[s^{\ell}(i)\left\|\phi\left(p_{i j}^{m}\right)\right\| s^{\ell}(j)\right]\right)\right)}{\sum_{k \in N(i) \cup\{i\}} \exp \left(\sigma_{a}\left(\sum_{m} \vec{a}_{\ell}^{\top}\left[s^{\ell}(i)\left\|\phi\left(p_{i k}^{m}\right)\right\| s^{\ell}(k)\right]\right)\right)} αij=kN(i){i}exp(σa(ma [s(i)ϕ(pikm)s(k)]))exp(σa(ma [s(i)ϕ(pijm)s(j)]))

Centrality Adjustment

通常来说,图上入度越大的节点它的重要性就越高,所以可以使用 c ( i ) = log ⁡ ( d ( i ) + ϵ ) c(i)=\log (d(i)+\epsilon) c(i)=log(d(i)+ϵ)计算初始的中心性得分,但这样直接计算出来的结果不能准确地衡量入度和中心性之间的关系,所以又加上了两个可学习的参数 γ \gamma γ β \beta β c ∗ ( i ) = γ ⋅ c ( i ) + β c^{*}(i)=\gamma \cdot c(i)+\beta c(i)=γc(i)+β通过综合考虑 c ∗ ( i ) c^{*}(i) c(i)和最后一层的输出 s L ( i ) s^{L}(i) sL(i)得到节点i最终的score s ∗ ( i ) = σ s ( c ∗ ( i ) ⋅ s L ( i ) ) s^{*}(i)=\sigma_{s}\left(c^{*}(i) \cdot s^{L}(i)\right) s(i)=σs(c(i)sL(i))

architecture

在这里插入图片描述
为了增强注意力的效果,模型使用了多头注意力机制

We define s h ′ ℓ − 1 ( j ) s_{h}^{\prime \ell-1}(j) sh1(j)to be node i’s score that is estimated by (ℓ − 1)-th layer, and fed into h-th SA head in ℓ-th (i.e., the next) layer, which in turn produces an aggregation s h ℓ ( i ) s_{h}^{\ell}(i) sh(i) of these scores:

s h ℓ ( i ) = ∑ j ∈ N ( i ) ∪ { i } α i j h , ℓ s h ′ ℓ − 1 ( j ) s_{h}^{\ell}(i)=\sum_{j \in \mathcal{N}(i) \cup\{i\}} \alpha_{i j}^{h, \ell} s_{h}^{\prime \ell-1}(j) sh(i)=jN(i){i}αijh,sh1(j)
在这里插入图片描述
在第 l l l层会得到 H l H^l Hl s h l ( i ) s^l_h(i) shl(i)值,将它们取平均后得到 s h ′ l ( i ) s_{h}^{\prime l}(i) shl(i)作为第 l + 1 l+1 l+1层的输入。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 10
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值