注意力机制的基本思想和实现原理(一)

最近几年注意力模型在深度学习各个领域被广泛使用,无论是做图像处理、语音识别还是自然语言处理的任务中,都需要用到注意力模型。所以在今天的内容中,我们先了解下注意力机制的工作原理。

什么是注意力机制?

当我们在看一件东西的时候,不难发现我们的关注点一定是我们当前看的这件东西的某一个地方/部位,这意味着人们注意某个目标或某个场景时,人类会利用有限的注意力资源从大量信息中快速筛选出高价值信息,使用视觉注意力机制可以极大地提高视觉信息处理的效率和准确性。

注意力机制的分类

从Attention的时空角度出发,我们可以分为Spatial Attention空间注意力和Temporal Attention时间注意力;从Attention的实际应用角度来看,可以分为Soft Attention 和Hard Attention。Soft Attention是所有的数据都会注意,都会计算出相应的注意力权值,不会设置筛选条件。Hard Attention会在生成注意力权重后筛选掉一部分不符合条件的注意力,让它的注意力权值为0,即为不再注意这些不符合条件的部分。

Encoder-Decoder框架

要了解深度学习中的注意力机制,就先得学习一下Encoder-Decoder框架,因为现

在大多数注意力模型都是在Encoder-Decoder框架上作用的,下面是是文本处理领域里常用的Encoder-Decoder框架最抽象的一种表示:
在这里插入图片描述

我们可以这样直观地理解一下:可以把Encoder-Decoder框架看作适合处理由一个句子生成另外一个句子的处理模型。对于句子对来说&

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值