Revisiting Event Argument Extraction: Can EAE Models Learn Better When Being Aware of Event Co-occurrences?
一、写作动机:
事件共现在先前的研究中被认为对事件抽取(EE)是非常有帮助的,但是还没有研究将事件共现用于事件论元抽取(EAE),但事实上,如下图所示,事件共现总是存在于文本中,它们在揭示事件关联和对比不同事件的语义结构方面是有用的。作者想要填补这一部分的空白。
二、概况:
为了解决EE和EAE之间的分歧,作者将基于SOTA提示的EAE模型PAIE扩展为一个文本到表格的框架TabEAE,能够同时抽取多个事件的论元。同时,作者也验证了事件共现对于EAE的重要性。
三、问题定义:
其中x是文本(句子或者文档),N是目标事件数目,Ti是第i个事件的触发器,ei是第i个事件的类型,Rei是和事件类型ei相关联的论元角色集合,Ai是第i个事件的论元集合,每个a(r)∈Ai是x中表示角色r的文本跨度。
这一公式在同一上下文中出现的所有事件,提供了对问题更加全面的看法。
四、解决问题——模型框架
作者提出了模型——TabEAE用来对事件论元进行提取,该模型源于基于SOTA提示的EAE模型PAIE。下图是TabEAE的主要框架。具体的模型架构解析大家可以阅读一位大佬写的:ACL 2023 Revisiting Event Argument Extraction - 知乎 (zhihu.com)
五、训练-推理方案
作者探索了三种训练-推理方案:
(1)Single-Single:提取单个事件并进行推理;
(2)Multi-Multi:同时提取所有事件并进行推理;
(3)Multi-Single:同时提取所有事件并让模型在推理过程中同时提取单个事件。
六、实验结果:
TabEAE(Single-Single)在四个基准测试集上与先前的SOTA模型(TSAR、DEGREE和PAIE)相当竞争。与此同时,TabEAE(Multi-Single)在ACE05上的Arg-I F1和Arg-C F1分别超过了SOTA模型0.6和1.1,在RAMS上超过了0.2和0.4,在WikiEvents上超过了0.3和0.7。至于MLEE数据集,TabEAE(Multi-Multi)的性能优于TabEAE(Multi-Single),与SOTA模型相比,Arg-I F1提高了2.5,Arg-C F1提高了2.7。