K-BERT:BERT+知识图谱

1 简介

本文根据2019年《K-BERT:Enabling Language Representation with Knowledge Graph》翻译总结的。如标题所述就是BERT+知识图谱。

本文贡献如下:
1) 我们介绍了一个知识集成的语言表达模型,取名K-BERT。其兼容BERT,同时可以融合专有领域知识。解决了Heterogeneous Embedding Space(HES,多样化的Embedding空间)和Knowledge Noise (KN)问题。HES指文本中词语的embedding 向量和知识图谱中实体的embedding 向量因为他们获取的方式不一样,导致向量空间不一致。KN指太多的知识融合可能使语句偏离其正确的意思。
2) 因为知识图谱的参与,K-BERT不仅在专有领域的表现超过BERT,同时在一些开发领域也有很好的表现。
3) K-BERT代码和我们自己开发的知识图谱已开源,地址:https://github.com/ autoliuweijie/K-BERT.

2 K-BERT方法

如下图所示,K-BERT包含四部分:knowledge layer, embedding layer, seeing layer、mask-transformer。下面分别论述。
在这里插入图片描述

2.1 knowledge layer

主要就是引入知识图谱,将句子转换成句子树(带有分支的)。如下图:
在这里插入图片描述

以及模型中的示例,如下图,Cook是apple公司的CEO,这个分支是来自于知识图谱。:
在这里插入图片描述

2.2 embedding layer

如下图,embedding有三部分,1)token embedding,2)位置embedding(采用的是soft-position,如下图红色数字部分,每个分支都编码了),3)segment embedding(如只有一个语句就都标成A,如果两个语句就表示成 {A, A, A, A, …, A, B, B, …, B}.)
在这里插入图片描述

2.3 seeing layer

主要是上图的visible matrix,主要解决Knowledge Noise (KN)问题。如下图的“china”仅和“beijing”有关,不应该和“apple”有关,我们就引入visible matrix使不相关的不可见。
在这里插入图片描述

visible matrix 矩阵公式如下:
在这里插入图片描述

2.4 mask-transformer

在这里插入图片描述

在这里插入图片描述

mask-self-attention公式如下:
在这里插入图片描述

3 实验

中文语料库:WikiZh,WebtextZh
知识图谱:CN-DBpedia4 , HowNet5 and MedicalKG(这个是作者弄的).

下图的开放域任务,K-BERT有不少提升。
在这里插入图片描述

下图,在特定领域K-BERT (MedicalKG)提升很明显。

在这里插入图片描述

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
知识图谱BERT源码是指实现了BERT模型的代码。BERT(Bidirectional Encoder Representations from Transformers)是由Google研究团队开发的一种自然语言处理模型。它基于Transformer架构,具有双向编码能力,能够更好地理解和表达句子的语义。 知识图谱BERT源码的主要作用是实现BERT模型的训练和预测功能。通过预训练数据和任务特定数据的训练,BERT模型能够提取出句子中的语义信息,并生成句子的表示向量。这些表示向量可以用于各种自然语言处理任务,如文本分类、命名实体识别和句子相似度计算等。 知识图谱BERT源码的实现通常基于深度学习框架,如TensorFlow或PyTorch。它主要包括模型的网络结构定义、损失函数的定义以及训练和预测的代码逻辑。在训练阶段,源码会加载预训练的BERT模型参数,并根据具体的任务数据进行微调。在预测阶段,源码会根据输入的文本,通过前向传播得到句子的表示向量,并根据具体任务的需求,进行相应的后续处理。 知识图谱BERT源码的使用需要一定的编程知识和对深度学习的理解。使用者可以根据自身的需求进行源码的修改和扩展,以适应不同的任务和数据。此外,为了获得更好的性能和效果,使用者还需要对模型的超参数进行调优,如学习率、批量大小等。 总之,知识图谱BERT源码是实现BERT模型的代码,它可以用于训练和预测自然语言处理任务,帮助我们更好地理解和处理文本数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值