NLP事件检测顶刊顶会模型汇总-2015-2020

RA-GCN(基于序列标注)(使用BiLSTM,GCN)

Event Detection with Relation-Aware Graph Convolutional Networks

  1. 为ED提出RA-GCN模型,将特定的句法关系引入到GCN,是第一个在GCN中同时使用句法依存结构和关系标签的方法。
  2. 设计了关系感知的聚合模型,聚合特定关系标签连接的单词的句法信息。设计了上下文感知的关系更新模型,对关系表示进行更新。
  3. 在ACE2005数据集上进行了实验,结果表明RA-GCN实现了新的state-of-the-art。

EKD(基于序列标注)(使用BERT)

Improving Event Detection via Open-domain Trigger Knowledge

  1. 第一个利用开放域的触发词知识提高事件检测的性能。
  2. 提出了一个新的teacher-student模型,从标记和未标记的数据中学习,减少标记中的内置偏差。

EE-GCN(基于GCN,序列标注)(使用GCN)

Edge-Enhanced Graph Convolution Networks for Event Detection with Syntactic Relation

  1. 目前的基于GCN的事件检测的方法没有考虑依赖标签的类型。
  2. 提出了EE-GCN模型,同时融合句法结构和依赖标签的类型,通过依赖上下文的方式,学习和更新关系表示。

Yunmo Chen et al.(基于MRC)(使用BERT)

Reading the Manual-Event Extraction as Definition Comprehension

  1. 一种新的事件提取方法,通过漂白语句考虑注释准则;
  2. 一个多跨度选择模型,证明事件提取方法以及零镜头和少镜头设置的可行性。

我们提出了一种事件提取的方法,它使用漂白的语句来提供一个模型来访问注释手册中包含的信息。我们的模型用从文本中提取的值来逐步细化语句。我们还证明了对罕见或根本没有的事件类型进行预测的可行性。

2019:

Xiaozhi Wang,(基于分类)(使用BERT,CNN)

Adversarial Training for Weakly Supervised Event Detection

  1. 提出了一个基于触发词的潜在实例发现策略,基于一个假设:如果一个词在已知事件实例中充当触发词,全部提到这个词的实例也表达这个事件。
  2. 提出一个对抗训练机制,不仅可以从候选集中提取信息实例,而且可以在噪声环境下(如远程监督)提高事件检测模型的性能

TLNN(基于序列标注)(使用LSTM,CRF)

Event Detection with Trigger-Aware Lattice Neural Network

  1. 提出TLNN模型,同时解决触发词不匹配和一词多义问题;
  2. 利用外部知识库来获取语义信息。

本文提出一个事件抽取模型TLNN,该模型可以有效缓解触发词错误匹配和一词多义的触发词问题,借助多个粒度的语义特征表示(字级别、词级别、字/词释义级别)和基于触发词感知的特征提取器捕获多个层级的语义信息,得到了较好的实验效果。

TBNNAM(基于分类)(使用LSTM,Attention)

Event Detection without Triggers

  1. 第一项专注于无触发事件检测的工作。与现有方法相比,该方法需要较少的人工标注。
  2. 提出了一个简单有效的模型解决了多标签和触发词缺失问题
  3. 实现了一系列baseline模型,并对它们进行了系统的评估和分析

2018:

GCN-ED(基于序列标注)(使用BiLSTM,GCN)

Graph Convolutional Networks with Argument-Aware Pooling for Event Detection

  1. 第一个将句法信息整合到基于神经网络方法的ED,结果显示了GCN对ED任务的有效性;
  2. 基于实体提及,提出用于ED的pooling方法;

模型在ED的数据集上实现了state-of-the-art。

这篇论文提供了 一个 句法依存树 与 图卷积网络 结合的很好的方案,并且取得了可观的结果。

不过这种方案对句法依存树和命名实体的标注质量要求还是较高的,如果这两种标注中有较多噪声,对模型效果势必有较大影响。

而实际使用中句法依存树这类标注的成本很高,可能只能使用自动标注工具,所以这种情况下可能模型效果会打折扣。

Yubo Chen, Hang Yang, Kang Liu, Jun Zhao, and Yantao Jia. 2018.(基于序列标注)(使用BiLSTM,Gated Multi-level Attention)

Collective Event Detection via a Hierarchical and Bias Tagging Networks with Gated Multi-level Attention Mechanisms

  1. 提出一个新的模型用于事件检测,使用一个分等级和带偏置的标注网络,同时检测一个句子中的多个事件,使用一个门控多等级的注意力机制,自动地抽取和动态地合并上下文信息。

DEEB-RNN(基于分类)(Bi-GRU)

Document Embedding Enhanced Event Detection with Hierarchical and Supervised Attention

大部分现存的事件检测方法主要利用句子级别的上下文信息。

基于特征的方法捕捉文档级别的信息,这些特征需要人工设置且存在错误传播,同时通过规则在文档级发现事件间信息,这些规则难以完整。

基于表示的方法,由于受到无监督训练过程的限制,文档级别的表示不能具体地捕捉事件相关的信息。

  1. 提出了一个基于分等级和监督的注意力的Bi-RNN模型,使用文档级别的信息用于事件检测。
  2. 文档信息由单词级别编码(重点关注触发词)和句子级别编码(重点关注包含事件的句子)构成

SELF(基于分类)(使用GAN,Bi-LSTM + GAN)

Self-regulation: Employing a Generative Adversarial Network to Improve Event Detection

  1. 论文提出的SELF: Bi-LSTM + GAN模型旨在让模型在特征提取阶段更好地提取到纯净特征,减少污染特征的影响。

GMLATT(基于分类)(使用了BiGRU)

Event Detection via Gated Multilingual Attention Mechanism

  1. 我们提出了一个新颖的多语言ED任务框架,可以同时解决数据稀缺和单语歧义问题。

该框架包含两种注意力机制:单语环境注意和门控跨语言注意。在我们最好的情况下,这是第一个引入对多语言数据建模的注意机制的工作在ED任务中。

2017

Liu et al(基于分类)(使用注意力机制)

Exploiting Argument Information to Improve Event Detection via Supervised Attention Mechanisms

  1. 分析了联合模型在ED任务中存的问题,提出在这个任务中利用参数信息。
  2. 基于ED模型,介绍了监督attention,并且在任务中比较了不同的attention策略。

2016:

HMM(基于分类)(使用LSTM,CNN)

A Language-Independent Neural Network for Event Detection

提出一个基于LSTM和CNN的事件检测模型,用于捕捉序列和分块信(chunk)息,在多个语言中取得不错的效果。

模型的整体框架如上图,主要分为下面三部分:

Bi-LSTM:输入编码为Skip Gram model训练得到。

CNN:输入为token编码和位置编码(到候选触发词的距离)的拼接,使用两种维度(2和3)的卷积核。

分类:拼接前两部分的输出,进行分类。

NC-CNN()(使用CNN)

Modeling Skip-Grams for Event Detection with Convolutional Neural Networks

我们提出了一个新的 CNN 架构的 ED,利用非连续卷积的句子。我们对提出的模型的一般设置和 DA 设置的评价表明了非连续机制的有效性。

FrameNet(基于分类)(使用FrameNet)

Leveraging FrameNet to Improve Automatic Event Detection

使用FrameNet提高事件检测任务的表现,同时探究FrameNet中的frame和ACE中事件之间的关系。

2015:

CNNs(基于序列标注)(使用CNN)

Event Detection and Domain Adaptation with Convolutional Neural Networks

我们提供了一个用于事件检测的CNN,它可以自动学习预训练的字嵌入,位置嵌入以及实体类型嵌入的有效特征表示,并减少错误传播。我们进行了实验,以在一般设置和域适应设置中比较所提出的CNN与最先进的基于特征的系统。实验结果证明了CNN的跨域的有效性和稳健性

早期基于特征的事件检测

David Ahn. 2006. The stages of event extraction. In Proceedings of the Workshop on Annotating and Reasoning about Time and Events

Siddharth Patwardhan and Ellen Riloff. 2009. A unified model of phrasal and sentential evidence for information extraction. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP)

Shasha Liao and Ralph Grishman. 2010b. Using document level cross-event inference to improve event extraction. In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL)

Yu Hong, Jianfeng Zhang, Bin Ma, Jianmin Yao, Guodong Zhou, and Qiaoming Zhu. 2011. Using cross-entity inference to improve event extraction. In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL).

Qi Li, Heng Ji, and Liang Huang. 2013. Joint event extraction via structured prediction with global features. In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL)

Bishan Yang and Tom M. Mitchell. 2016. Joint extraction of events and entities within a document context. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值