【机器学习】注意力机制

1 注意力机制定义

1.1 定义

深度学习中的注意力机制从本质上讲和人类的选择性视觉注意力机制类似,核心目标也是从众多信息中选择出对当前任务目标更关键的信息注意力机制就是一种加权


1.2 为什么注意力机制可以发挥重要作用

卷积是如何提取特征的? 卷积操作实际上是向量的内积,而两个向量的内积代表他们的相关程度
卷积是是一个线性的过程,为了增加非线性特征,加入了池化层和激活层。这个过程是一系列矩阵乘法和元素对应非线性乘法,特征元素用过加法相互作用。
注意力机制加入了对应元素相乘,可以加大特征的非线性,而且简化了其他运算


2 注意力分类

2.1 按照可微分性不同

硬注意力:和图像的裁剪类似
软注意力
在这里插入图片描述
高斯注意力机制:通过利用参数化的一维高斯滤波器来创建图像大小的注意力图
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EDi8972p-1587283373788)(en-resource://database/1722:1)]

[1] Kosiorek A, Bewley A, Posner I. Hierarchical attentive recurrent tracking[C]//Advances in Neural Information Processing Systems. 2017: 3053-3061.
代码地址:https://github.com/akosiorek/hart

2.2 关注的域不同

空间域 :内容的注意力机制
通道域 :通道之间的注意力机制
时间域:一种硬注意力机制,加入时间信息
混合域 内容和通道的注意力融合

2.3 空间域的注意力机制

在这里插入图片描述
代码地址:https://github.com/kevinzakka/spatial-transformer-network

2.4 通道域的注意力机制

在这里插入图片描述
代码地址:https://github.com/hujie-frank/SENet

2.5 混合域的注意力机制

在这里插入图片描述
在这里插入图片描述
代码地址:https://github.com/tengshaofeng/ResidualAttentionNetwork-pytorch

总结

空间注意力机制就是通过,一定的方法训练出一个变换空间,用来感受我们的目标位置。并且添加到后续的网络中增加训练效果。
通道注意力也就是通过学习,增强有用特征的占用比、

其他注意力模型

在这里插入图片描述

  • 9
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

刘大望

谢谢你请的咖啡

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值