​KDD 2022 | kgTransformer:基于知识图谱与Transformer的复杂逻辑查询

863a3f4f1b842e8bc9c4485eb56957df.gif

©PaperWeekly 原创 · 作者 | 张成蹊

单位 | Freewheel机器学习工程师

研究方向 | 自然语言处理

2c3bbd0e67432ee513b1d71391730dfc.png

Preface

最近在 KDD'22 上看到了一篇用 transformers 结构来做 KGe(Knowledge Graph embedding)的 paper,体裁比较新颖。

e67fd427f6569e403d883d77d8fba31f.png

论文标题:

Mask and Reason: Pre-Training Knowledge Graph Transformers for Complex Logical Queries

论文链接:

https://arxiv.org/abs/2208.07638

代码链接:

https://github.com/THUDM/kgTransformer

论文有几方面的亮点:

1. 把 KG 里面的节点关系(relation/edge)转换成了关系节点,从而把两个节点+两者的关系变成了一个三元组。文中称之为 Triple Transformation Method

2. 使用了两阶段 pre-training。第一阶段主要是通过两种 Random Walk 来对整个图进行随机采样,然后进行训练;第二阶段是通过预定义的一些范式(1p/2p/3p/2i/3i)来采样并训练;文中分别称为 Dense initialization 与 Sparse refinement;预训练的任务与 BERT 相类似,都是通过 mask 其中若干节点,并要求模型预测这些节点;(值得注意的是,在二阶段 pre-training 与整个 fine-tune 过程中,也会 mask 若干节点,但只要求模型预测出最终节点);

3. 在 Multi-Head Attention 上层训练多个 FFN,以模拟出多专家投票的效果,来增大模型参数量;使用 Gating 的方式控制每次只选择 2 个 FFN 产出结果,以节省计算时间。文中称之为 Mix-of-Experts(MoE)

文中提出的这些方法使得 kgTransformer 具有以下优势:

1. 动态的 KG embedding(因为使用了 transformer,此处可以参照 GloVe embed 与 ELMo embed);

2. 模型的学习过程与应用的目标是匹配的(这句话是针对部分模型,训练目标是补全一阶的 graph relation link,而应用到多跳的逻辑查询)。

  • 4
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值