论文浅尝 - COLING2020 | 桥接文本和知识的多原型嵌入在少样本关系三元组抽取中的研究...

本文转载自公众号:浙大KG。    


论文题目:Bridging Text and Knowledge with Multi-Prototype Embedding for Few-Shot Relational Triple Extraction

本文作者:余海阳

发表会议:COLING 2020

论文链接:https://person.zju.edu.cn/person/attachments/2020-10/01-1602383274-838948.pdf

监督学习下的关系三元组抽取方法需要大量的标注数据,训练样本少时性能较低。而人类可以在有限的监督样本下了解新的概念,通过学习少量实例来掌握新知识。为此,我们开始研究尚未得到充分理解的少样本关系三元组抽取任务。与以前的单任务下少样本学习问题不同,关系三元组由于实体和关系之间的隐式关联关系而更具挑战性。

关系三元组抽取任务是自然语言处理和知识图谱中重要的基础任务,该任务的目标是对于无结构化的文本预料中识别出实体对以及实体对之间的关系。这种三元组形式的知识存储方式,对于下游如知识问答、阅读理解等任务都有帮助。

目前的关系三元组抽取主要为监督学习的方式训练模型,需要大量的人工标注的训练样本,费时费力。而我们可以只在了解很少量的样本后就可以学习到新的知识,由此下少样本学习的研究对于关系三元组也极为重要。

对于少样本关系三元组抽取任务而来,我们有两个数据集meta data和test data,每个数据集包括的样本形式为(x,t),其中x为文本语料,t为句中抽取到的关系三元组。仿照少样本学习N-way K-shot设定,由于实体对的类别可以被关系类别约束,比如 Born_in关系约束头实体类别为PERSON以及尾实体类别为LOCATION,因此我们通过关系的类别决定三元组的分类。具体任务设定如下示意图:


在本文中,我们提出了一种新颖的多原型嵌入网络模型(MPE Net),联合抽取关系三元组的两个组成部分,即实体对和对应关系。具体来说,我们设计了一种混合的原型学习机制,该机制将有关实体与关系的文本、知识桥接在一起,从而让模型学习过程注入实体和关系之间的隐式关联。此外,我们提出了一种原型感知的正则化方法,使得模型学习原型的过程更有效率且更具有代表性。

我们通过重构 FewRel 数据集满足我们的实验设定,并对比了一些少样本学习的模型学习方法。实验结果表明了我们模型的有效性。同时我们发现目前抽取性能偏低主要由于实体对抽取的低效。我们进一步具体分析了实体对抽取的错误结果,并总结了三种主要的错误原因。

总体而言,这篇文章研究工作的主要贡献包括:

(1)探索研究少样本关系三元组抽取任务,并提出多原型嵌入网络模型将文本与知识桥接已注入实体与关系的隐式关联。实验结果表明,所提出的方法可以提高抽取性能。

(2)关系三元组抽取的实验结果中,实体对的抽取性能远远低于关系抽取的性能,如何进一步增强实体学习的效率是我们下一步需要探索的方向。

   

浙江大学知识引擎实验室

 


 

OpenKG

开放知识图谱(简称 OpenKG)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

点击阅读原文,进入 OpenKG 博客。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值