KG-BERT: BERT for Knowledge Graph Completion 2019ACL

KG-BERT模型是基于预训练的BERT模型进行fine-tuning,用于知识图谱补全。它将三元组转化为文本输入,通过BERT获取三元组表示向量,并进行三元组分类或关系分类任务。这种方法创新性地将自然语言处理技术应用于知识图谱的构建与完善。
摘要由CSDN通过智能技术生成

把BERT用在知识图谱补全上
提出KG-BERT模型,在预训练好的BERT基础上继续fine-tuning。

1.传统KGC方法

传统的KGC方法一般依赖于KGE,而KGE往往通过将KG中的三元组关系投影到某个表示空间中,然后使用打分函数对三元组的合理性进行评估,在用基于正负样本的对比进行模型的训练,而这个表示空间往往和某些数学结构联系在一起,比如最著名的TransE就是向量的加法,RotatE对应了复平面上的旋转,后面还发展出了双曲面、圆锥等各种各样的表示模型。

2.KG-BERT模型

具体的做法就是修改了BERT模型的输入使其适用于知识库三元组的形式。
KG-BERT则直接使用BERT模型对三元组进行打分,它将三元组中的头尾实体和关系转换成对应的文本输入([CLS]head[SEP]relation[SEP]tail[SEP])到BERT模型中,然后使用BERT函数输出结果中的CLS标签作为整个三元组的表示向量,并投影到一个打分函数空间中,然后通过三元组分类这样的任务来对BERT进行微调。

3.三元组分类

KG-BERT(a)

微调KG-BERT以预测三元组合理性的图示
 将三元组转换为文本序列模式,将实体、关系的名称或描述文本,通过[CLS]和[SEP]进行顺序拼接,喂入KG-BERT中后,获得[CLS]的表征向量,并进行二分类,判断该三元组是否成立。
在这里插入图片描述
正样本(三元组即在KG中)和负样本(给定一个三元组,随机替换实体或关系,且确保生成的新的三元组在KG中不存在)

4.关系分类

(KG-BERT-b)

微调KG-BERT以预测两个实体之间关系的图示

KG-BERT也可以完成关系分类,输入两个实体或实体描述,输出多类分类。
这里只是把sigmoid的二分类改成了softmax的关系多分类。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

失眠的树亚

你的鼓励是我最大的创作动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值