Learning Attention-based Embeddings for Relation Prediction in Knowledge Graphs

Relations are Important

尽管传统的GAT在获取网络结构上取得成功,但直接用于KG里是不合适的,因为它忽略KG里很重要的一部分信息——边,即在KG里实体之间的关系(relation)信息。

作者认为在KG里,实体起到不同的作用很大程度是依靠与其他实体连接的不同关系

所以论文提出的模型就需要考虑学习到实体 e i e_i ei的不同关系的信息,即需要加入关系向量。即相对于GAT,每一层的输入向量除了entity embeddings矩阵之外,还加入了关系向量表示 relations embeddings-G矩阵,同时输出也是它们两个。

为了从关系里学习到实体(entity)新的向量表示, 对于每个关系三元组 t i j k = ( e i , r k , e j ) t^{k}_{ij}=(e_i,r_k,e_j) tijk=(ei,rk,ej)构造如下公式, h i , h j h_i ,h_j hi,hj 即是实体向量 e j , e j e_j,e_j ej,ej表示, g k g_k gk是关系的向量 r k r_k rk表示,它们通过连接方式拼接而成,再乘一个 W 1 W_1 W1作为这层线性变换的参数矩阵。
在这里插入图片描述
然后再加一个 W 2 W_2 W2作为非线性变换的激活函数里的参数。
在这里插入图片描述
然后和GAT操作一样,用 b i j k b_{ijk} bijk 图上相邻的实体节点(三元组)与它计算一个相关性权重系数 a i j k a_{ijk} aijk:

在这里插入图片描述
如下图展示计算一组关系三元组的相关性系数 a i j k a_{ijk} aijk的网络结构:
在这里插入图片描述
类似GAT, 对于下一层新的新的实体表示 h i ′ h^{'}_{i} hi如下公式转换:
在这里插入图片描述

同时也和GAT里一样,模型采用multi-head attention机制,每层独立学习不同实体的向量表示,最后拼接在一起。
在这里插入图片描述
对于下一层新的关系的向量表示矩阵 G G G有如下公式,直接乘一个 W ∈ R T X T ′ W\in R^{TXT'} WRTXT参数矩阵进行线性转换,T’是输出层每个关系向量的维度大小(论文里这个符号貌似错了,上面是字母P)。
在这里插入图片描述

和GAT类似,最后一层网络的输出如果还使用mutil-head机制的话,维度太大,就直接取它们平均值。
在这里插入图片描述
为了保存最初向量的原有的信息,作者使用一个类似resual网络的思想,在最后一层layers,将最初的向量乘一个转换矩阵 W E W^E WE使得转换后矩阵维度和GAT最后输出实体向量 H f H^f Hf一样,再将它们两相加,如下公式:
在这里插入图片描述

整个网络的结构如下图所示:
在这里插入图片描述最后作者象征性解释,讨论一下,GAT加入边的关系后,通过GAT网络,可以让实体通过多次迭代,获取学习到其与其n-阶邻居节点的信息和关系,从而更高效全局的让知识图谱上所有不同距离的实体可以通过边互相分享其带有的信息,可以辅助完成一些预测,推理工作,如下图:
在这里插入图片描述

  • 7
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值