学习心得9.8
最近读了几篇2020顶会(AAAI,IJCAI,ACL,WWW等)的EA文章,在这里做一个总结与汇总。
-
SSP(Global Structure and Local Semantics-Preserved Embeddings for Entity Alignment)
这篇文章提出KG中的全局结构信息和局部关系语义是互补的,可以共同提高EA的性能。实际上就是在用GCN建模KG结构的基础上,再将具体的关系信息纳入实体的表示。
框架如上,首先用HGCN(GCN+Highway Networks)建模KG的全局结构信息.接着用关系的头尾实体以及关系自身,并利用一种投影的方法(TransEdge [Zequn et al., 2019])来表示具体上下文中的关系.
最后用一个基于limit的损失函数对模型进行训练. -
Alinet(Knowledge Graph Alignment Network with Gated Multi-Hop Neighborhood Aggregation)
不同KG中对齐实体的领域存在非同构现象(即领域的异构),针对这一问题,作者提出可以考虑中心实体的多跳邻居,将远邻居的信息整合进中心实体的表示.当然,不同的邻居对于EA的重要性不同,所以作者使用注意力机制,赋予不同的邻居以不同的注意力权重.此外,仅仅使用结构信息去建模是不足的,比如GCN不能处理下面这个三角形的结构.
所以,还要考虑具体的关系信息来进一步提升实体的表示.
模型框架如上.门控的多跳邻居聚合:
关系语义的建模:
除此之外,作者还提出了一个数据增强的技巧:若i,j是KG1里面的两个实体,他们之间有边连接.而他们在KG2中预对齐的对应实体i’和j’之间没有边连接,则加上一条边.
-
NMN(Neighborhood Matching Network for Entity Alignment)
这篇文章的动机和上一篇文章类似.等价实体领域的异构现象(领域的尺寸和拓扑结构不同)是普遍存在的的.而且,抛开领域异构的的问题,有很多共同的邻居,他们不够有辨别性,对于实体特征的描述作中不大.
模型框架如上.主要分为四步.
(1)利用HGCN对KG的结构进行建模,这一步是和下面分开训练的.
(2)使用一个领域采样算法,在目标实体的一跳领域内选取信息更丰富的邻居
(3)受到图匹配(GMN)网络的启发,提出领域匹配网络(NMN),计算两个实体领域之间的相似度.
(4)最后进行实体对齐的预测. -
CEA(Collective Entity Alignment via Adaptive Features)
这篇文章主要思想是利用集体对齐的算法来提升EA的性能.首先选取了三个自适应的特征对实体进行嵌入表示:结构信息,语义信息(实体名字的词向量),字符串信息(实体名字的编辑距离).然后利用稳定匹配(SM)的思想进行集体实体对齐. -
COTASAE(CO-Training of Structure and Attribute Embeddings for Entity Alignment)
这篇文章综合利用结构信息和属性信息对KG中的实体进行建模.作者首先指出了利用实体的属性信息遇到的挑战:
(1) 属性名字以及属性值的异构性.由于命名约定,属性类型的表面名字可能不一样,另外属性值的数据结构以及值的粒度不一样
(2)存在大量的noise属性.即并不是所有的属性都能帮助学得更好的实体表示,有些noise属性是没有用甚至是有负面影响的.
模型框架如上,主要有两个组件.一个组件使用TransE对KG的结构进行建模,另一个组件使用Pseudo-Siamese Neural Network对实体的属性和属性值进行编码.属性这边有两个点.一是用双向的GRU在字符级别对属性的值进行编码,二是利用了一个注意力机制,对不同属性赋予不同的注意力权重.