论文研读2018:卷积中的注意力和keras实现。CBAM: Convolutional Block Attention Module
文章目录Abstract1 Introduction2 Related Work
论文原版下载
Abstract
提出了Convolutional Block Attention Module (CBAM),
轻量级,能嵌入任何CNN之间。
在通道和空间中增减了注意力机制。
模块在MS COCO,imagenet-1k,VOC2007目标检测数据集上测试,测试结果表明加上我们的模块有巨大的提升。
1 Introduction
深度,宽度,基数,注意力
影响CNN的三个重要因素:深度,宽度,基数(即更多的分支
原创
2020-06-29 12:49:14 ·
3038 阅读 ·
13 评论