论文笔记 ACL 2022|Query and Extract: Refining Event Extraction as Type-oriented Binary Decoding

124 篇文章 14 订阅

1 简介

论文题目:Query and Extract: Refining Event Extraction as Type-oriented Binary Decoding
论文来源:ACL 2022
组织机构:弗吉尼亚理工学院暨州立大学
论文链接:https://arxiv.org/pdf/2110.07476.pdf
代码链接:https://github.com/VT-NLP/Event_Query_Extract

1.1 创新

  • 将事件抽取定义为query-and-extract范式,通过利用事件类型和论元角色之间的语义,提高事件抽取的性能,同时模模型在新事件类型和跨本体迁移方面具有泛化性。

2 方法

在这里插入图片描述
模型的整体框架如上图,主要包括触发词检测和论元抽取两部分:

2.1 触发词检测

对于每个事件类型t,计算被标注为此类型的触发词数量与在训练预料中的词数量的比例,以此比例从训练语料中选取topK标注触发词。然后以句子和触发词(包括事件类型)为输入,然后通过BERT编码,然后通过attenton机制(使用cos相似度计算权重)建立token和事件类型的联系,使用attention机制计算上下文之间的联系,然后进行二分类(BERT输出的token编码、两个attention机制得到的向量、词性标注 P i P_i Pi),目标函数为交叉熵,具体公式如下:

2.2 论元抽取

输入为句子和论元角色,使用另一个BERT进行编码,同时使用BERT-CRF模型识别实体,得到实体 E = { e 1 , e 2 , . . . , e M } E=\{e_1,e_2,...,e_M\} E={e1,e2,...,eM},然后将实体表示和上下文表示r(触发词)进行拼接,然后通过点乘计算实体和论元角色之间的相似性,然后使用双向attention获得实体与角色之间的联系,同时使用attention分别计算实体之间的联系和论元之间的联系,最后拼接到一起进行二分类,,目标函数为交叉熵,具体公式如下:

3 实验

实验数据集为ACE 2005和ERE-EN,实验结果如下图:
在这里插入图片描述
Zero-Shot事件抽取的性能:
在这里插入图片描述
在这里插入图片描述
跨本体迁移的实验结果:
在这里插入图片描述
消融实验:
在这里插入图片描述

  • 5
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hlee-top

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值