知识图谱推理论文阅读 Learning to Walk across Time for Interpretable Temporal Knowledge Graph

来源:2021 KDD

模型代码: https://github.com/sharkmir1/T-GAP

主要贡献

1、提出了一种新的GNN编码器能够从时序知识图谱中有效地捕捉查询相关的信息。

2、通过分析推理的注意力分布,我们展示了T-GAP能在它的推理过程中提供可解释性

一、方法overview

给定  和查询,在编码阶段,T-GAP首先使用PGNN去创造  中所有实体节点的初始特征  。接下来,在每个解码步骤t=1,...,T,从 中迭代地采样一个子图  ,子图中只包含了查询相关的节点和边。对于每个子图中包含的实体i,SGNN创建查询相关节点的特征  ,该特征融合了查询向量q和初始特征  。使用  和  ,注意力流计算转移概率去将每个节点的注意力值传播到它可以到达的邻居节点上,以得到下一步的节点注意力分布  。在最后的传播步骤,输入查询的答案可以被推理出,为具有最高注意力值  的节点。 

二、具体模块方法

2.1Preliminary GNN

对于给定的  ,首先对其中的实体都进行随机初始化。然后,为了用实体的上下文信息来表征实体,PGNN的每一层都通过聚合实体的邻居节点信息来表示实体。对于每个每个边  之间的时间戳  ,我们提出了分别编码时间差  的符号和距离,具体地,PGNN计算节点i和j之间的信息  如下式:

 

其中  是关系嵌入。  是时间差的嵌入。在这里,考虑了时间差的符号。

接下来,新节点的特征  被以下式计算(实际上是GAT,多头注意力机制):

 

最后进行多头注意力机制的拼接:

 

其中K是多头注意力的头数。

 

2.2 Subgraph GNN

在每一个解码步骤t,SGNN为当前步骤子图中所有实体更新特征  。SGNN不仅融合了实体的邻接节点信息,也融合了查询上下文向量。最初,子图中实体的特征都是他们的初始特征  。接下来,SGNN使用与PGNN一样的方式进行信息传播,只不过该部分拥有独立的参数。如下式:

 

 最终的特征  还要将  与查询向量q拼接起来。如下式:

 

 

2.3Attention Flow(注意力传播)

最初,查询节点的权重值是1,其他实体都是0,之后,在步骤t,权重流传播边权重  并且将它们聚合到节点权重  上。如下式:

 

 其中,要保证在图中所有节点的权重和保持初始的1不变。即:

 

 转移概率计算方式定义如下:

 2.4 Subgraph Sampling

 

 

子图采样的过程:

1、找到t-1步中,x个有最高节点注意力的核心节点。

2、对于每个核心节点,采样y个从该节点出发的边。

3、在x*y个采样的边中,找到z个在当前步骤中具有最高分的边。

4、将这z个边添加到 

其中,x,y,z是超参数,且x最大为2,y最大为3,z最大为2。

 

 

 

 

 

 

 

 

 

 

 

 

 

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值