论文笔记 EMNLP 2022|Retrieval-Augmented Generative Question Answering for Event Argument Extraction

125 篇文章 12 订阅

1 简介

论文题目:Retrieval-Augmented Generative Question Answering for Event Argument Extraction
论文来源:EMNLP 2022
组织机构:The University of Texas at Dallas
论文链接:https://arxiv.org/pdf/2211.07067.pdf
代码链接:https://github.com/xinyadu/RGQA

1.1 动机

目前基于生成的事件抽取方法存在如下问题:

  • 输出模板格式密集(训练实例较少),无法充分利用约束模板的角色之间的语义关系。
  • 无法发挥大型预训练模型在相似输入输出对上产生抽取结果的类比能力。

1.2 创新

  • 提出了一个检索增强的生成问答模型,用于事件论元抽取。
  • 提出一个基于聚类的采样策略,用于few-shot场景(可比性更高)。

2 方法

在这里插入图片描述
模型的整体框架如上图,输入(图1)包括(Demonstration,Question,Input Context),其中Demonstration为(<Question, Context>, Arguments),从训练集中得到,使用S-BERT计算当前实例和Demonstration的相似性(图2),选择最相关的Demonstration。

模型生成的目标为下图1,loss为两个(图2),analogy loss为相似性设置一个阈值,判断Demonstration和实例中有非空的答案,另一个loss为生成loss。

Few-shot下的取样策略:使用k-means对输出上下文和触发词文本的编码进行聚类,对每个类簇取相应比例的样本,过程如下图:
在这里插入图片描述

3 实验

实验数据集为ACE 2005和WikiEvent,数据统计如下图:
在这里插入图片描述
Fully-Supervised下的实验结果如下图:
在这里插入图片描述
domain transfer下的实验结果如下图:
在这里插入图片描述
Few-shot下的实验结果如下图:
在这里插入图片描述
不同取样策略的事件类型分布和结果如下图:
在这里插入图片描述
在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hlee-top

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值