论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De

125 篇文章 12 订阅

1 简介

论文题目:Document-level Event Extraction with Efficient End-to-end Learning of Cross-event Dependencies
论文来源:NAACL 2021
论文链接:https://aclanthology.org/2021.nuse-1.4.pdf

1.1 动机

  • 先前的工作没有结合事件提及抽取,来学习实体和事件共指。
  • 在文档级别上,对跨事件依赖项进行建模时,效率是一个挑战。

1.2 创新

  • 提出了一个文档级别的事件抽取模型,使用Deep Value Networks(DVN)捕捉跨事件依赖,同时进行事件提及抽取、事件共指和实体共指。
  • 为了恰当地在文件级别上评测事件抽取,提出两种评测指标DOCTRIGGER和DOCARGUMENT DOCTRIGGER考虑触发词span、事件类型和事件共指,将相同的事件共指聚集到一起,然后计算匹配分数,使用Kuhn-Munkres algorithm(匈牙利算法)约束一个真实触发词cluster对于一个预测触发词cluster。DOCARGUMENT考虑论元span,论元角色和实体共指。

2 背景知识

  • 对于事件提及抽取,本篇论文的不同之处是需要提取所有名称、名词和代词论元的完整span,而先前的工作专注于抽取名称论元的head span。
  • 事件共指(Event Coreference)是识别相互关联的事件提及。与实体共指类似,为每个预测的触发词 d i d_i di预测最可能的祖先触发器 d j d_j dj

3 方法

主要包括两部分,使用base model独立地预测每个子任务,然后将DVN合并到base model中以高效地捕捉跨事件依赖关系。

3.1 基础模型

基础模型使用DYGIE++,主要包括下面模块:

  • Encoding:使用BERT-BASE进行编码
  • Span Enumeration:为了解决重叠实体,枚举全部的k-gram作为候选事件提及和实体提及,对于每个span s i s_i si表示为head token e h e_h eh、tail token e t e_t et和距离编码,表示为 x i = [ e h , e t , c h , t ] x_i=[e_h,e_t,c_{h,t}] xi=[eh,et,ch,t]
  • Classification:对于触发词抽取对应每个token,公式为 y i t r i g = F F N t r i g ( e i ) y_i^{trig}=FFN^{trig}(e_i) yitrig=FFNtrig(ei);实体抽取对应每个span,公式为 y i e n t = F F N e n t ( x i ) y_i^{ent}=FFN^{ent}(x_i) yient=FFNent(xi);论元抽取、事件提及和实体提及,对每对候选span进行评分,公式为 y k t = F F N t ( [ x i , x j ] ) y_k^{t}=FFN^{t}([x_i,x_j]) ykt=FFNt([xi,xj])

触发词抽取和论元抽取的loss为交叉熵;实体共指和事件共指的loss为优化候选span的所有正确共指span的marginal log-likelihood。公式分别如下:

3.2 跨事件依赖

由于在计算效率方面的优势,将DVN加入到base model中捕捉跨事件的依赖。
DVN是一个结构预测框架,使用 v ( x , y , θ ) v(x,y,\theta) v(x,y,θ)评估预测y和输入x的一致性。 v ( x , y , θ ) v(x,y,\theta) v(x,y,θ)的目标是估计一个oracle value function v ∗ ( y , y ∗ ) v^*(y,y^*) v(y,y)衡量输出y和真实结果 y ∗ y* y相比的特性。 s . t . ∀ y ∈ Y , v ( x , y , θ ) ≈ v ∗ ( y , y ∗ ) s.t.\forall y \in \mathcal{Y},v(x,y,\theta) \approx v^*(y,y^*) s.t.yY,v(x,y,θ)v(y,y)。推理时的公式为 a ^ = a r g m a x y v ( x , y ) \widehat{a}=argmax_yv(x,y) a =argmaxyv(x,y)
局部触发词分类预测每个token独立的。DVN将局部触发词分类 y t r i g y^{trig} ytrig和全部token e的编码作为输入,结构的输出 y ^ t r i g \widehat{y}^{trig} y trig应该纠正局部触发词分类的错误。 y ^ t r i g \widehat{y}^{trig} y trig通过h次迭代更新获得,每个token i的事件类型通过 a r g m a x ( y ^ t r i g ) argmax(\widehat{y}^{trig}) argmax(y trig)得到,公式如下:在这里插入图片描述
评测标准使用oracle value function v ∗ ( y t r i g , y t r i g ∗ ) v^*(y^{trig},y^{trig*}) v(ytrig,ytrig),为了适应连续的输出,松弛每个token的输出标签从[0,1]到(1,0),用于计算 F1 分数的并集和交集操作分别替换为元素最小和最大操作,loss公式如下:
在这里插入图片描述
最终的loss为
在这里插入图片描述
添加噪声防止过拟合,分别有随机噪声、交换噪声和交换低置信度噪声,如下图:
在这里插入图片描述

4 实验

数据集选择ACE 2005,实验结果如下图:
在这里插入图片描述
在每个子任务的效果如下图:
在这里插入图片描述
计算事件分析:
在这里插入图片描述
Value Function 估计:
不同的训练设置,探究逼近oracle value function的程度,结果如下图:
在这里插入图片描述
人工进行错误分析,发现模型有如下错误:

  • 标注歧义(Annotation ambiguity):与人工标注者存在歧义(如两个句子相同的上下文,但是相同的单词标注不同)。
  • 观点的事件(Conceptual Events):该事件在未来没有发生或者可能发生。
  • 欠缺的文本证明(Weak Textual Evidence):缺失知识库或者其他的新闻文章,不能正确的预测。
  • 跨事件依赖(Cross-event Dependencies):跨事件依赖建模仍有改进的空间。

伦理分析:在ACE2005数据集中,男性代词有2780个,女性代词有970个,但在测试集中女性代词的F1值更高。在ACE2005数据集中,模型不受性别偏见的影响,在其他数据集上需要进一步研究。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hlee-top

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值