注意力机制——从另外一个角度理解LSTM、BLSTM

前言

前段时间写了关于RNN,LSTM、BLSTM相关的博客,从结构上对这是那种网络进行了讲解,前两天看了一篇有关注意力机制的论文,很感兴趣,于是今天恶补了一天,在这里写下学习心得,从另外一个方面来介绍上述模型的优点。

人类注意力机制

从注意力模型的命名方式看,很明显其借鉴了人类的注意力机制,因此,我们首先简单介绍人类视觉的选择性注意力机制。
在这里插入图片描述
其实详细说起来复杂但是如果简单是的说就是一个关键词“选择性”。人类的大脑对信息进行处理的时候通常是以重要信息为突破点,选择性的关注,进而更好的理解信息。

Encoder-Decoder框架

为了更简单理解注意力机制,我们利用Encoder-Decoder框架来讲解,简单说就是机器翻译,这样更容易理解。我们先说传统的Encoder-Decoder框架。
在这里插入图片描述
以把它看作适合处理由一个句子(或篇章)生成另外一个句子(或篇章)的通用处理模型。对于句子对<Source,Target>,我们的目标是给定输入句子Source,期待通过Encoder-Decoder框架来生成目标句子Target。Source和Target可以是同一种语言,也可以是两种不同的语言。而Source和Target分别由各自的单词序列构成:
在这里插入图片描述
Encoder顾名思义就是对输入句子Source进行编码,将输入句子通过非线性变换转化为中间语义表示C:
在这里插入图片描述
对于解码器Decoder来说,其任务是根据句子Source的中间语义表示C和之前已经生成的历史信息 来生成i时刻要生成的单词
在这里插入图片描述
这里说了太多了我总结一下,这里其实做到了一点那就是“记忆”,所谓的c记下了之前的序列,然后拿去作用于输出。但是对于这里的c有一个无法弥补的缺点。那就是没有关注点,c只是单纯的整个语义编码,没有任何“选择性”,所以并不是明确的选择。

引入注意力模块

在这里插入图片描述
这就是引入模块以后的模型。
我们可以看出模型发生了变化:
在这里插入图片描述

c对应每个翻译阶段是不同的:

在这里插入图片描述
也就是说产生了所谓的“选择性”。对于不同的词翻译时c是不同的。让我们的翻译有了侧重点,更加有利于翻译。这样我们在引入注意力模块后就有了选择性的存在。举个图像翻译的例子:
在这里插入图片描述
这就是加入了注意力机制后模型开始具有了“选择性”。

LSTM/BLSTM

那么这些和LSTM/BLSTM有神魔关系。严格意义来说LSTM/BLSTM加入注意力机制,在RNN中,我们可以联系上下文,但是却是机械的接受一段时间内所有的前端输出,这里存在两个问题一、RNN只能做到短时记忆,很不利于联系上下文。二、没有“选择性”。当过渡到LSTM,由于遗忘门的出现,就出现了选择性,可以说LSTM不仅实现了联系上下文。而且实现了选择性记忆,就是注意力。这样就可以更好的实现识别工作。
至于BLSTM他出现了反向反馈这样就能不仅联系上文也能联系下文。这样就在LSTM上更进了一步。

最后

最后说一点,我看了几篇文章,注意力机制可以作为一种模块加入各种网络,所以并不局限于LSTM/BLSTM,在一些网络如VGG16后面加入注意力模块后可以让网络效果更好。这里我觉得我写的不怎么好。以为有些东西没讲清楚,在这里总结一下,所谓的注意力机制,就是在网络中加入一种可以记住整体的输入信息,并且给与信息一定的权重比例,利用这种方式让我们的翻译或者识别工作可以参考其他时间点信息,而且是有目的有选择性的参考。通过这种方式提高我们识别或者翻译的精度。先写到这里,如果以后有需要的话还会更新,写的不好还请见谅,如果想详细理解LSTM/BLSTM请结合我前面的文章阅读。

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值