零基础学nlp【4】 global attention 和 local attention(Effective approaches to attention-based neural mt)

本文介绍了《Effective approaches to attention-based neural machine translation》论文中的全局(global attention)和局部(local attention)注意力机制,以及输入馈送方法。全局注意力使用所有输入时刻的encoder隐变量,而局部注意力只选择部分时刻。此外,论文还探讨了不同的注意力计算方法(dot、general、concat),并提出input-feeding approach,通过将前一时刻的输出与隐变量结合,传递历史信息。实验表明,全局关注下的dot模型和局部关注下的general模型表现优异。
摘要由CSDN通过智能技术生成

零基础学nlp【4】 global attention 和 local attention

论文:Luong M T, Pham H, Manning C D. Effective approaches to attention-based neural machine translation[J]. arXiv preprint arXiv:1508.04025, 2015.

主要内容

基于之前的注意力机制之上,这篇论文提出了两个概念,分别是“global attention”和“local attention”。两者区别在于构建注意力机制时前者使用所有的输入时刻的encoder隐变量,而后者采用部分的encoder隐变量。同时,与之前的注意力机制不同在对decoder的输出进行预测时,不是采用前一时刻的隐变量预测,而是采用当前时刻的隐变量预测当前时刻的输出。文中还采用了三种不同的注意力机制获得方法,并进行了比较

细节

global attention

global attention的结构如下图
在这里插入图片描述
可以看出,模型通过现在时刻dec

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值