Knowledge Transfer for Out-of-Knowledge-Base Entities: A Graph Neural Network Approach 利用图神经网络解决知识图谱外实体的知识表示
摘要
- 知识库一般不完整,因此需要补全。
- 知识库补全(KBC)旨在预测知识库中的缺失信息。
- 本文讨论知识库中的知识库外实体问题:如何表示和解决新实体问题(训练时未观察到的测试实体)。
- 现有的基于嵌入知识图谱补全模型中,所有实体用于训练得到嵌入表示。
- 但新实体的出现,获得新实体的嵌入需要重新训练的昂贵代价,
- 为了解决OOKB实体问题而不需要重新训练,我们利用测试时提供的有限辅助知识,利用图神经网络(GraphNNs)计算OOKB实体的嵌入量。
- 实验结果验证了我们提出的模型在OOKB环境下的有效性。此外,在不涉及OOKB实体的标准KBC设置中,我们的模型在WordNet数据集上实现了最先进的性能。
- Github源码
1 Introduction
WordNet、Freebase、等知识图谱被用于:信息提取、问答和文本理解等任务。这些知识图谱可以看作是一组关系三元组,即(h;r;t)形式的三元组,其中一个实体h称为头实体,一个关系r,一个实体t称为尾部实体。
尽管一个知识库包含数百万个这样的三胞胎,但它存在不完整性。知识库补全(KBC)的目标是预测知识库中缺失的信息。
近年来,基于嵌入的知识库模型已经成功地应用于大规模知识库中。这些模型构建训练数据中观察到的实体和关系的分布式表示(或向量嵌入),并在嵌入上使用各种向量运算来预测缺失的关系三元组。
本文针对基于嵌入的知识图谱中的知识图谱外实体问题进行了研究。当新实体(OOKB实体)出现在训练后给