1 简介
论文题目:Document-Level Event Argument Extraction via Optimal Transport
论文来源:ACL 2022
组织机构:俄勒冈大学
论文链接:https://aclanthology.org/2022.findings-acl.130.pdf
1.1 动机
- 目前的文档级事件论元抽取方法仅利用文档中单词的顺序来表示论元,而完全忽略了输入文档的结构。
1.2 创新
- 提出一个基于结构的文档级事件论元抽取模型,利用句子的句子的依赖解析树,通过使用optimal transport裁剪得到文档的依赖解析树。
- 提出一个正则化的方法,限制表示学习中不相关词的贡献。
2 方法
任务定义:给定触发词和候选论元,通过分类得到论元对应的角色。
模型包括下面4部分:
- Input Encoder:编码包括两个部分:Bert得到的词向量;随机初始化的距离编码(到触发词和候选论元的距离),然后通过BiLSTM编码。
- Dependency Pruning:首先使用Stanford CoreNLP parser工具得到句子的依赖解析树,相邻句子的root节点进行连接,得到一个文档的依赖解析树(包含文档中全部的词)。由于整个树包括不相关词带来的噪音,使用Optimal Transport联合考虑句法(到触发词和候选论元的最小距离)和语义(Euclidean distance)进行词分配(两个集合x,y,y中添加一个空结点,与空结点对其的x数据进行裁剪),最后通过GCN对裁剪过的图进行编码( H ′ = G C N ( H , T ′ ) H'=GCN(H,T') H′=GCN(H,T′))。
- Regularization:为了编码相关的上下文词和排除不相关词的噪声,进行正则化。对未裁剪的图使用相同的GCN编码( H ′ ′ = G C N ( H , T ) H''=GCN(H,T) H′′=GCN(H,T)),进行max_pooling,最小化两者的距离,公式如下。
|
|
|
- Prediction:使用触发词向量、论元向量、max_pooling向量进行分类,公式如下:
|
|
|
3 实验
实验数据集为RAMS,对比的方法包括两种:RAMS上以前的方法;其他任务上基于结构的模型。实验结果如下图:
在句子级上的实验结果:
消融实验:
在不同距离数据上的实验结果:
Case Study: