NLP事件抽取顶刊顶会模型汇总-2020

文章介绍了多种事件抽取方法,包括将序列标注与BERT结合的BEESL模型,解决错误传播的HPNet,利用层次策略网络处理多事件的模型,以及基于GCN的跨媒体事件抽取框架M2E2。此外,还提到了将事件抽取转化为多轮问答任务的MQAEE和Duetal.模型,以及考虑句法关系的EEGCN模型,这些方法都旨在优化事件检测和论元抽取的性能。
摘要由CSDN通过智能技术生成

SciBER(序列标注)(使用BERT)

Biomedical Event Extraction as Multi-turn Question Answering

作者引入了一个端到端神经网络信息联合抽取模型Biomedical Event Extraction as Sequence Labeling(BEESL)。该模型将事件抽取任务转换为序列标注,利用多标签感知编码策略,通过多任务学习对中间任务进行联合建模。

  1. 将事件结构转换为适合序列标注的表示方法,并在多任务序列标注模型中使用带有BERT的多标签感知编码器。与之前的工作相比,建立了一个更快的联合模型,减少了错误传播。

HPNet(基于序列标注)

Joint Event Extraction with Hierarchical Policy Network

目前pipeline和joint的事件抽取,都存在冗余的实体-事件对信息,从而带来可能的错误。同时存在错误匹配问题(一个句子中存在多个事件)

  1. 使用policy network做事件抽取
  2. 提出了一个分等级(两个)的结构进行联合事件抽取,充分探索了事件抽取子任务之间的深层信息交互,并解决了多个事件和错误匹配问题。

M2E2(基于GCN)(使用GCN)

Cross-media Structured Common Space for Multimedia Event Extraction

  1. 提出一个新任务:多模态事件抽取,构建第一个跨媒体的新闻数据集。
  2. 提出一个弱监督训练框架,利用现存的单模态标注数据,不使用跨媒体标注进行联合推测。
  3. 提出一个弱对齐结构嵌入方法(WASE),第一个利用结构化表示和基于图的神经网络进行多媒体公共空间嵌入。

MQAEE(基于问答,MAC)(使用BERT)

Event Extraction as Multi-turn Question Answering

提出一个多轮的问答框架用于事件抽取,可以充分利用触发词、事件类型和论元之间的交互信息,同时多轮的策略可以捕捉相同事件类型中不同论元角色之间的依赖。

本篇论文使用两种类型的机器阅读理解(MRC)任务:抽取式(答案为文本中的连续span),yes/no式(答案为yes或者no)

Du et al. (基于问答,MAC)(使用BERT)

Event Extraction by Answering (Almost) Natural Questions

  1. 我们提出了一个问答框架(图2),用于检测事件触发原因并抽取其相应的论元。据我们所知,这是将事件抽取问题转换为QA任务的首次尝试。
  2. 我们进行了广泛的实验,以评估我们在自动内容抽取(ACE)事件抽取任务上的框架。我们提出了几种质疑策略,并研究了它们对模型性能的影响。我们发现,使用基于注释准则的提问策略(即问题编码更具自然性和语义)以及触发信息可以产生最佳结果,尤其是在论元角色未知的情况下。我们最好的模型优于ACE事件抽取任务上的先前模型。

EEGCN(基于GCN,序列标注)(使用GCN)

Edge-Enhanced Graph Convolution Networks for Event Detection with Syntactic Relation

  1. 目前的基于GCN的事件检测的方法没有考虑依赖标签的类型。
  2. 提出了EE-GCN模型,同时融合句法结构和依赖标签的类型,通过依赖上下文的方式,学习和更新关系表示。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值