论文浅尝 | Deep Reinforcement Learning for Entity Alignment

ff97a36fa2b88a9836d1df83d57d08bc.png

笔记整理:陈鹏,天津大学硕士

链接:https://aclanthology.org/2022.findings-acl.217.pdf

动机

实体对齐(Entity Alignment)的基本目标在于发现两个知识图谱间指向同一现实对象的实体对,以便将不同知识图谱连接起来,更好地支持下游应用。基于知识图谱嵌入的方法在最近的实体对齐研究中吸引了越来越多的注意。现有的方法尽管取得了很大进展,但是往往直接把相似度最高的候选实体直接匹配输入实体,而不考虑该候选实体更深层次的语义,很难高效、准确地搜寻和评估实体对。为了解决这个问题,本文将实体对齐任务建模为序列决策任务,提出基于强化学习的知识图谱实体对齐框架(RLEA)。实验结果显示本文提出的的方法显著提高了现有SOTA方法的性能表现,最高提高31.1%。

亮点

RLEA的亮点主要包括:

(1)首次将实体对齐问题建模为序列决策任务,为优化基于嵌入的实体对齐任务(EEA)的评估策略提供了通用的解决方法;

(2)首次提出基于强化学习的知识图谱实体对齐框架(RLEA)以解决序列EEA问题,显著提高了现有SOTA方法的性能表现;

概念及模型

RLEA并不直接使用实体嵌入的相似度作为判断依据,而是直接把嵌入作为输入,训练一个策略网络(Policy Network)使其能够寻找到尽可能多的实体对,以获得最大奖励(Reward)。同时,本文还采用了一种课程学习(Curriculum Learning)的策略,在训练过程中逐步增加难度,避免因任务复杂性而导致学习失败。

c244c396b20989b9273b7dcb8ee78ffa.png

RLEA的基本结构如上图所示。对于输入实体和候选实体,本文选择了额外k个与输入实体接近的实体(即 opponent entities)作为context信息,可以用于拒绝当前匹配。对于每个实体,本文首先利用图卷积神经网络(GCN)同时编码其邻居向量以得到中间表示。

c583dc8c7d87c76328eb1396582d3e1b.png

接下来将实体和候选实体的表示输入到线性层中进行合并,并利用相反的实体表示作为负样本互信息作为额外的特征,综合两个评估器最终得到行为分布。

e83ad831775cc6925e1cc2d3e9e61d63.png

6d66aaaa314edb00aaba590ed5549add.png

936ab7382f1526aa83e6ce0c36c7ca8a.png

8b080bd32c27fb119cb263da8e62980e.png

强化学习奖励函数如下所示:

1a8c02193dd5a2830cf73ffc278e9a8d.png

本文使用策略梯度算法调整参数以获取更大的奖励得分,并利用一个基线函数作为比较以减少方差:

34fbf7e6d23bd1bc37a29543b9a0360f.png

efa7d867257cdbfafde9c39d4871622d.png

本文采用课程学习的策略与环境交互,在序列训练过程中逐步增加难度。

eff41abd451327c9fe2f90bd373279a9.png

如上图所示,RLEA在环境中维持了一个匹配对序列,根据实体对间的相似度进行排序,以保证在测试阶段的使用。由于相似度高的实体对未必真正匹配,在训练过程中本文通过对比实际标签与相似度信息来判断一个匹配对的难易程度。根据当前训练轮数,较高难度的匹配对将有更大的概率直接逃过训练。在一轮中,环境所给出的实体对将被模型逐对进行判断,被认为匹配的实体对将会直接排除环境序列中的所有涉及这些实体的匹配对,这一过程一直持续到序列终止或所有实体均被匹配。

理论分析

实验

本文选取了含有15k条数据OpenEA数据集进行实验,包含EN-FR,EN-DE,D-W和D-Y4个子数据集,其中囊括跨语言和跨资源数据集。另外,本文选取4个性能领先且具有不同特点的实体对齐模型作为对比,结果如下表所示,RLEA在全部四种子数据集上均相较原有基线方法有显著提升。另外,Seq为仅仅采用序列决策而不涉及强化学习的对比方法,其在绝大多数情况下也优于目前所采用的贪心策略。

ac0138899b59711c51d95164383fce02.png

另外,本文还与传统实体对齐方法进行了对比。尽管之前的基于嵌入的方法具有许多优点,但在性能上仍与基于字符匹配等技术的传统方法有着较大差距。本文所提出的基于强化学习的方法不但缩小了这一差距,并且在一些数据集上(如D-Y)显著优于传统方法。

40d703010b0d8f505af90937816a3aa8.png

总结

本文针对直接把相似度最高的候选实体直接匹配输入实体,而不考虑该候选实体更深层次的语义,很难高效、准确地搜寻和评估实体对的问题,将实体对齐问题建模为序列决策任务,并提出提出基于强化学习的知识图谱实体对齐框架进行模型优化。实验结果显示本文提出的的方法显著提高了现有SOTA方法的性能表现。


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

7f5839d96d607eb324e15498fdd50a4c.png

点击阅读原文,进入 OpenKG 网站。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值