论文笔记 ACL 2020|A Two-Step Approach for Implicit Event Argument Detection

125 篇文章 16 订阅

1 简介

论文题目:A Two-Step Approach for Implicit Event Argument Detection
论文来源:ACL 2020
论文链接:https://aclanthology.org/2020.acl-main.667.pdf
代码链接:https://github.com/zzsfornlp/zmsp

1.1 动机

  • 事件论元检测目前的SOAT方法分为两种:基于span和序列标注,基于span的方法复杂度太高;序列标注的方法在复杂场景中灵活性和可扩展性较差,如重叠提及和一个提及有多个角色。

1.2 创新

  • 提出了一个2步的方法:首先检测出论元的head-word,然后再进行head-span的扩展。(假设head-word可以捕捉提及spans的信息)

2 方法

在这里插入图片描述
模型的整体框架如上图,主要包括下面三部分:

  1. BERT Encoder:输入为触发词和触发词周围的句子(window size=5),同时使用一个indicator标识token(触发词为0,触发词所在句子的其他token为1,周围句子的token为0)

  2. Argument Head-word Detector:使用biaffine模块(公式如下面第2个图参考链接,仿射变换的第一项可以建模i和j之间的可能性,第二项建模j对任何依赖的先验概率)计算概率 P r r ( p , c ) Pr_r(p,c) Prr(p,c),表示候选词c在谓词p中扮演论元角色为r的概率。(在推理过程中,如果一个角色有多个论元,选择分数最高的论元)计算公式如下:
    在这里插入图片描述
    在这里插入图片描述

  3. Head-to-span Expander:该部分将head-word扩展为完整的span,将其视为左右分类问题,例如左边扩展的场景(设置K=7表示左边的单词最大边界),公式如下
    在这里插入图片描述

3 实验

实验数据集为RAMS(v1.0),在真实论元span的情况下的实验结果如下:
在这里插入图片描述
完整的论元检测的实验结果如下图:
在这里插入图片描述
消融实验:
在这里插入图片描述

在触发词和论元不同距离的实验表现:

在这里插入图片描述
分析最频繁的20个论元角色的实验结果如下:
在这里插入图片描述
人工分析部分的结果:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hlee-top

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值