KG-BERT for Knowledge Graph Completion 笔记 Abstract1、采用预训练的语言模型BERT来补全知识图谱2、将知识图谱中的三元组视为文本序列,并提出新框架KG-BERT3、方法:用三元组的实体描述和关系描述作为输入,利用KG-BERT语言模型计算三元组的评分函数资料查阅:预训练语言模型 PLMs:预训练模型就意味着先学习人类的语言知识,然后再代入到某个具体任务。1)基于大规模文本,预训练得出通用的语言表示;2)通过微调的方式,将学习到的知识传递到不同的下游任务预训练模型的三个关键技术:①Transformer ②自监督学习 ③微调I