【注意力机制】CBAM: Convolutional Block Attention Module 阅读笔记

本文介绍了CBAM(Convolutional Block Attention Module),一种用于增强卷积神经网络表现力的注意力模块。CBAM通过通道和空间注意力模块,分别在通道和空间维度上推断注意力图,从而优化特征。实验结果显示,CBAM在多个基准任务上提高了网络性能,特别是在图像分类、对象检测等领域。
摘要由CSDN通过智能技术生成

在这里插入图片描述
🌟Paper: CBAM: Convolutional Block Attention Module


📖Abstract

文章提出了CBAM(Convolutional Block Attention Module),卷积块注意力模块,这是一种用于前馈卷积神经网络的简单而有效的注意力模块。
给定一个中间步骤的特征图,我们的模块会依次沿着通道和空间维度推断注意力图,然后将注意力图与输入特征图相乘以进行自适应特征优化。
由于CBAM是一个轻量级的通用模块,因此可以将其简单地集成到任何CNN结构中,而增加的计算量可以忽略不计,并且可以与basic CNN一起进行端到端的训练。


📖Introduction

卷积神经网络(CNN)凭借其强大的表达能力,极大地推动/改善了视觉任务的性能。 为了进一步提高CNN的性能,最近的研究主要关注网络的三个重要因素:深度,宽度和基数(?)。
到目前为止,从LeNet架构到Residual-style Networks,为了得到更丰富的特征信息,网络变得越来越深。 VGGNet显示,具有相同形状的堆叠块可以得出fair的结果。 遵循相同的想法&#

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值