-
关键词:Cross-lingual EA,GCN,Graph Matching
-
摘要
以往的跨语言知识图对齐研究依赖于仅从单语知识图结构信息中导出的实体嵌入,可能无法匹配在双语知识图中具有不同事实的实体。本文引入了
主题实体图,一个实体的局部子图,用它们的上下文信息来表示实体。从这个角度看,知识库对齐任务可以被看作是一个图匹配问题;在此基础上我们提出了基于图注意的解决方案,该方案首先匹配两个主题实体图中的所有实体,然后联合建模局部匹配信息,得到一个图级匹配向量。
-
介绍
对于跨语言实体对齐任务,已有多种基于实体匹配的方法被提出。通常,这些方法首先通过编码单语KG事实将每个KG的实体嵌入到低维向量空间中,然后学习一个相似性得分函数,基于它们的向量表示来匹配实体。然而由于不同语言中的一些实体会有不同的KG事实,在实体嵌入中编码的信息可能在不同的语言中是不同的,这使得这些方法很难匹配这些实体。图1展示了这样一个例子,我们想要对齐
和
,但它们周围的邻居中只有一个邻居是对齐的。此外,这些方法不将实体表面形式编码到实体嵌入中,也使得匹配那些在KG中有少量邻居且缺乏足够的结构信息的实体变得困难。
为解决这些缺点,我们提出
主题实体图来表示KG中实体的上下文信息。与以往利用实体嵌入来匹配实体的方法不同,我们将此任务表述为主题实体图之间的图匹配问题。为了实现这一点,我们提出了一种新的图匹配方法来估计两个图的相似度。具体来说,我们先使用GCN编码两个图
和
,生成每个图的实体嵌入列表。然后,我们通过使用注意力匹配方法将
中的每个实体与
中的实体进行比较,从而为
和
中的所有实体生成跨语言的、支持KG的匹配向量。因此,我们使用另一个GCN在整个图中传播局部匹配信息。这将为用于最终预测的每个主题图生成一个全局匹配向量。这背后的动机是,图卷积可以联合所有实体相似度,包括主题实体和它的邻居实体,编码成一个匹配向量。
-
方法
1、主题实体图
-
图2展示了
Lebron