论文笔记 ACL 2022|Document-Level Event Argument Extraction via Optimal Transport

125 篇文章 12 订阅

1 简介

论文题目:Document-Level Event Argument Extraction via Optimal Transport
论文来源:ACL 2022
组织机构:俄勒冈大学
论文链接:https://aclanthology.org/2022.findings-acl.130.pdf

1.1 动机

  • 目前的文档级事件论元抽取方法仅利用文档中单词的顺序来表示论元,而完全忽略了输入文档的结构。

1.2 创新

  • 提出一个基于结构的文档级事件论元抽取模型,利用句子的句子的依赖解析树,通过使用optimal transport裁剪得到文档的依赖解析树。
  • 提出一个正则化的方法,限制表示学习中不相关词的贡献。

2 方法

任务定义:给定触发词和候选论元,通过分类得到论元对应的角色。
模型包括下面4部分:

  1. Input Encoder:编码包括两个部分:Bert得到的词向量;随机初始化的距离编码(到触发词和候选论元的距离),然后通过BiLSTM编码。
  2. Dependency Pruning:首先使用Stanford CoreNLP parser工具得到句子的依赖解析树,相邻句子的root节点进行连接,得到一个文档的依赖解析树(包含文档中全部的词)。由于整个树包括不相关词带来的噪音,使用Optimal Transport联合考虑句法(到触发词和候选论元的最小距离)和语义(Euclidean distance)进行词分配(两个集合x,y,y中添加一个空结点,与空结点对其的x数据进行裁剪),最后通过GCN对裁剪过的图进行编码( H ′ = G C N ( H , T ′ ) H'=GCN(H,T') H=GCN(H,T))。
  3. Regularization:为了编码相关的上下文词和排除不相关词的噪声,进行正则化。对未裁剪的图使用相同的GCN编码( H ′ ′ = G C N ( H , T ) H''=GCN(H,T) H′′=GCN(H,T)),进行max_pooling,最小化两者的距离,公式如下。
  1. Prediction:使用触发词向量、论元向量、max_pooling向量进行分类,公式如下:

3 实验

实验数据集为RAMS,对比的方法包括两种:RAMS上以前的方法;其他任务上基于结构的模型。实验结果如下图:
在这里插入图片描述
在句子级上的实验结果:
在这里插入图片描述
消融实验:
在这里插入图片描述
在不同距离数据上的实验结果:
在这里插入图片描述
Case Study:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hlee-top

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值