attention机制 And 细粒度分类小结

机器视觉的attention 机制

 

机器视觉的Attention概述

https://zhuanlan.zhihu.com/p/52925608

 

视觉中的Attention 学习的也是一个权重分布,将权重分布施加到原来的特征上,使用权重的方式有下面几种方式。

  1. 加权保存所有的分量做加权。
  2. 可以在分布中以某种采样策略选取部分分量做加权(hard attention)
  3. 加权可以作用在原图上
  4. 加权可以作用在空间尺度上,给不同空间区域加权
  5. 加权可以作用在Channel尺度上,给不同通道特征加权
  6. 加权可以作用在不同时刻历史特征上,结合循环结构添加权重,例如前面两章节介绍的机器翻译,或者后期会关注的视频相关的工作。

下面是一些相关文献:

   Soft attention

      CVPR2017,Wang F等人提出了《Residual Attention Network for Image

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值