K-BERT,KnowBERT,KEPLER,KELM,K-Adapter,CoLAKE_biji

这篇博客探讨了几种将知识图谱融入预训练语言模型的方法,如K-BERT的sentence tree和position embedding,KnowBERT的实体增强表示,KEPLER的联合知识嵌入和语言表示,KELM的合成语料生成,K-Adapter的知识适配器,以及CoLAKE的上下文化语言和知识嵌入。这些模型旨在通过结合知识图谱信息提高预训练模型的理解和表现能力。
摘要由CSDN通过智能技术生成

K-BERT: Enabling Language Representation with Knowledge Graph.

对于每个句子抽取出三元组 ,构建sentence tree ,与原始句子合并一起编码position,输入给transformer。

对于position embedding,树上每个节点有个绝对位置hard position,每条路径分支上有soft position。具体如下图。
对于visible matrix。各个句子part只可见和自己有关的部分,无关的部分不可见。

KnowBERT:Knowledge Enhanced Contextual Word Representations. (EMNLP 2019)

将预训练得到的模型表示,经过知识提取后的知识表示得到基于实体的表示,再和原表示一起得到最终的表示。

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值