论文笔记 ACL 2021|MLBiNet: A Cross-Sentence Collective Event Detection Network

125 篇文章 12 订阅

1 简介

论文题目:MLBiNet: A Cross-Sentence Collective Event Detection Network
论文来源:ACL 2021
论文链接:https://arxiv.org/pdf/2105.09458.pdf
代码链接:https://github.com/zjunlp/DocED

1.1 创新

  • 提出一个多层的模型(MLBiNet)同时传递文档级别的语义信息和事件之间的依赖信息,用于事件检测任务。

2 方法

在这里插入图片描述
模型的整体框架如上图,共分为下面四个部分:

  1. 语义编码:该层通过双向LSTM和注意力机制得到句子级的语义表示。 x t = [ h t a ; e t ] x_t=[h_t^a;e_t] xt=[hta;et] 其中 h t a h_t^a hta为双向LSTM和注意力机制的结果, e t e_t et为词编码和NER类型编码的拼接。具体公式如下:
    在这里插入图片描述
    h t a = ∑ j = 1 n i a t , j h j h^a_t=\sum^{n_i}_{j=1}a_{t,j}h_j hta=j=1niat,jhj
  2. 双向解码:此部分通过双向LSTM捕捉句子中的事件依赖关系。具体公式如下,其中 y t y_t yt为事件标签向量。
    在这里插入图片描述
    在这里插入图片描述
  3. 信息集成模块:该部分通过LSTM聚集句子级别的信息,使用LSTM的最后一个单元状态表示。具体公式如下:
    在这里插入图片描述
  4. 多层双向标注层:该部分聚集临近句子和句子内的信息。对于句子 s i s_i si,第k层的输出计算公式如下:(加入了上一层临近句子的信息)
    在这里插入图片描述

双向解码和信息集成模块的参数共享。
Loss函数如下:
在这里插入图片描述

3 实验

在ACE 2005数据集上的实验结果如下图:
在这里插入图片描述
一个句子中包含不同数量事件的实验结果如下:
在这里插入图片描述
不同类型解码层的结果:
在这里插入图片描述
不同信息集成方法的结果:
在这里插入图片描述

4 总结

  • 将Seq2Seq的思想运用到序列标注任务中,同时捕捉了文档级别的语义信息和事件之间的依赖信息。
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hlee-top

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值