论文笔记 EMNLP 2018|Collective Event Detection via a Hierarchical and Bias Tagging Networks with Gated

125 篇文章 14 订阅

1 简介

论文题目:Collective Event Detection via a Hierarchical and Bias Tagging Networks with Gated Multi-level Attention Mechanisms
论文来源:EMNLP 2018
论文链接:https://aclanthology.org/D18-1158.pdf
代码链接:https://github.com/yubochen/NBTNGMA4ED

1.1 创新

  • 提出一个新的模型用于事件检测,使用一个分等级和带偏置的标注网络,同时检测一个句子中的多个事件,使用一个门控多等级的注意力机制,自动地抽取和动态地合并上下文信息。

2 背景知识

  • 在ACE 2005数据集中,接近30%的句子包含多个事件。

3 方法

在这里插入图片描述
模型的整体框架如上图所示,主要包括下面4个部分:

  1. Embedding Layer:使用Skip-gram对token进行编码。
  2. BiLSTM Layer:使用BiLSTM对句子进行编码,整个句子的编码表示为 h s i = [ h → N w , h ← 1 ] h_{si}=[\overrightarrow{h}_{N_w},\overleftarrow{h}_{1}] hsi=[h Nw,h 1]
  3. Gated Multi-level Attention:该部分包括两个部分句子级注意力层和文档级注意力层,然后使用Fusion Gate融合这两部分信息,最后每个token被表示为 x r t = [ e t , c r t ] xr_t=[e_t,cr_t] xrt=[et,crt],公式如下:
    句子级:

文档级:
在这里插入图片描述
最后将上述两个部分的信息进行合并:

  1. Hierarchical Tagging Layer:该部分使用两个Tagging LSTM和一个tagging 注意力自动地事件之间的依赖.
    第一层(与LSTM类似,增加了 t t − 1 1 t_{t-1}^1 tt11):
    在这里插入图片描述
    第二层(与第一层类似增加了 T t a T_t^a Tta):
    在这里插入图片描述
    其中 T t a T_t^a Tta由下面tagging attention计算:
    在这里插入图片描述
    最后对输入进行分类:
    在这里插入图片描述

损失函数如下,使用了偏置权重
在这里插入图片描述

4 实验

实验结果如下图:
在这里插入图片描述

消融实验:
在这里插入图片描述
在这里插入图片描述
Case Study:
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hlee-top

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值