Mask and Reason: Pre-Training Knowledge Graph Transformers for Complex Logical Queries

Mask and Reason: Pre-Training Knowledge Graph Transformers for Complex Logical Queries

KGE缺点:由于其固有的浅层和静态架构的限制,他们很难处理日益增长的复杂逻辑查询,这些逻辑查询包括逻辑运算符,计算边缘,多个源实体和未知的中间实体。

EPFO逻辑查询

在这里插入图片描述

与KGE相比,它是多跳的,其面对如下两个挑战:
1,随着跳数的增加,其查询的复杂度也是呈指数级增加的。
2,现有的EPFO推理器以一个监督方式被限制在少数类型查询和有限数量的样本上直接训练,因此推理器被禁止掌握超出现有类型所能表达的各种形式和更大范围的知识,从而损害了普遍性。
kgTransformer——是一个基于Transformer的GNN——解决知识图谱上的EPFO查询。

将transformer用于知识图谱中有两个问题:

1,如何在图结构中对节点邻接进行编码。
解决方法:通常将图视为具有位置编码的标记序列,忽略领接矩阵。
2,如何建模实体和关系。
解决方法:Triple Transformer,将关系转换为关系节点,最终将知识图谱转换为没有边属性的有方向图。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值