论文笔记 NAACL 2022|RAAT: Relation-Augmented Attention Transformer for Relation Modeling in Document-Lev

125 篇文章 12 订阅

1 简介

论文题目:RAAT: Relation-Augmented Attention Transformer for Relation Modeling in Document-Level Event Extraction
论文来源:NAACL 2022
组织机构:腾讯云
论文链接:https://aclanthology.org/2022.naacl-main.367.pdf
代码链接:https://github.com/TencentYoutuResearch/EventExtraction-RAAT

1.1 动机

  • 在文档级事件抽取任务中存在两个问题:跨句子(论元分布在多个句子);多事件(文档中存在多个事件)

1.2 创新

  • 提出一个文档级事件抽取模型,第一次在文档级事件抽取中使用关系信息。
  • 提出Relation-augmented Attention Transformer (RAAT),该网络可以覆盖文档级事件抽取中不同尺度和数量的关系。

2 方法

在这里插入图片描述
模型的整体框架如上图,主要包括下面几个部分:

  1. Entity Extraction and Representation:使用Roberta进行编码,然后接CRF,以序列标注的形式得到实体,通过max-pooling得到句子和实体的编码,loss公式如下:
    在这里插入图片描述
  2. Document Relation Extraction: 假定一个事件中每两个论元可以得到一个关系(ground truth:角色名2角色名),使用structured self attention network进行分类(公式1),得到关系类型,loss为公式2:
  1. Entity and Sentence Encoding:首先定义实体和实体(Co-relation:两个实体出现在一个关系三元组中(包含多个子类型)、Co-reference:指向相同实体的实体之间的依赖关系)、实体和句子之间的依赖类型(Co-existence:实体出现在该句子中)。将这些依赖映射到一个矩阵T中(存在依赖标记为0,否则为1,由于分散,将Co-relation依赖中相同head子类型的进行聚类),如下图注意力的计算包括俩部分:self-attention(公式1)和论文提出的增强关系的attention计算(公式2)。
    在这里插入图片描述
  1. Event Record Generation:首先使用句子编码进行事件分类(loss为公式1),如果存在事件,则进行事件记录解码。事件记录解码使用基于实体的有向无环图(EDAG),每个步骤预测该事件对应角色的论元。和EDAG不同的是:使用论文提出的RAAT结构而不是普通的transformer,预测的输出加入到下一阶段的输入中,每个步骤中重新计算依赖关系矩阵T,loss公式如下:
    在这里插入图片描述
    总loss公式如下:
    在这里插入图片描述

3 实验

实验数据集为ChiFinAnn和DuEE-fin,实验结果如下图:
在这里插入图片描述
在这里插入图片描述
在不同句子数量分布的实验结果如下:
在这里插入图片描述
在单个事件和多个事件上的实验结果:
在这里插入图片描述
消融实验:
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hlee-top

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值