NLP-2015:Luong NMT模型【Attention类型:Global Attention、Local Attention(实践中很少用)】

这篇博客探讨了全局注意力和局部注意力机制在神经机器翻译中的作用。全局注意力利用源语言所有信息,适合处理较短的源端句子,而局部注意力通过选择性关注部分源位置,降低了计算成本,适用于长序列翻译,但预测位置向量的准确性影响对齐效果。
摘要由CSDN通过智能技术生成

《原始论文:Effective Approaches to Attention-based Neural Machine Translation》

在实际应用中,全局注意力机制比局部注意力机制有着更广泛的应用,因为局部注意力机制需要预测一个位置向量 p t p_t pt,而这个位置向量的预测并不是非常准确的,会影响对齐向量的准确率。同时,在处理不是很长的源端句子时,相比于全局注意力并没有减少很多计算量。

一、全局注意力机制【Global Attention】

在这里插入图片描述
Global Attention原理:使用源语言全部信息做注意力机制;
在这里插入图片描述

二、局部注意力机制【Local Attention】

全局注意力机制有一个缺点,就是它必须关注每个目标单词的来源句子的所有单词,这一点代价高昂,并且可能使得翻译更长的序列(如段落或文档)变得非常困难。为了解决这个不足,该论文提出了一个局部注意力机制,该机制选择性地只关注每个目标词源位置的一小部分。

局部注意力是一种介于软注意力机制和硬注意力机制之间的注意力方式,其结构如下图所示:
在这里插入图片描述
在这里插入图片描述




参考资料:
Effective Approaches to Attention-based Neural Machine Translation 中英文对照翻译
【论文笔记】Effective Approaches to Attention-based Neural Machine Translation
博客:Effective Approaches to Attention-based Neural Machine Translation
博客:Effective Approaches to Attention-based Neural Machine Translation(Global和Local attention)
《Effective Approaches to Attention-based Neural Machine Translation》—— 基于注意力机制的有效神经机器翻译方法
【NLP论文笔记】Effective Approaches to Attention-based Neural Machine Translation

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值