注意力机制可视化_ECCV2018 KAIST CBAM更精细的注意力机制

本文介绍了ECCV2018论文中的CBAM模块,该模块通过通道和空间注意力机制提升卷积网络性能。作者在SE模块基础上增加了最大池化,并提出先通道后空间的串联方式,实验表明这种方法在分类和检测任务上表现优秀,且具有良好的可视化效果。
摘要由CSDN通过智能技术生成

8c9bb927649d8973e5c35ffcae720e07.png

Paper Reading Note: CBAM: Convolutional Block Attention Module

URL:

http://openaccess.thecvf.com/content_ECCV_2018/papers/Sanghyun_Woo_Convolutional_Block_Attention_ECCV_2018_paper.pdf​openaccess.thecvf.com

官方代码实现:

https://github.com/Jongchan/attention-module​github.com

TL;DR

作者提出了卷积块注意力模块,通过将输入特征在channel和spatial两个不同维度上压缩激活,两个模块按照串联的方式连接,在分类和检测任务上都取得了不错的效果,与SE关键的不同是引入了MaxPooling和spatial维度激活,作者的对比实验做得十分详细,值得一读


Dataset/Algorithm/Model/Experiment Detail

Dataset

ImageNet,MS COCO,VOC2007

Algorithm

作者旨在研究影响网络性能的其他因素,类比人类视觉系统关注显著区域,作者也想引入注意力机制帮助网络更好地关注对图像识别最关键的区域。

与直接计算3d a

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值