BAM: Bottleneck Attention Module算法笔记

论文地址
姊妹篇
BAM: Bottleneck Attention Module
这是CBAM的姊妹篇,原班人马打造,不得不服
摘要:在这项工作中,我们把重心放在了Attention对于一般深度神经网络的影响上,我们提出了一个简单但是有效的Attention 模型—BAM,它可以结合到任何前向传播卷积神经网络中,我们的模型通过两个分离的路径 channel和spatial, 得到一个Attention Map,实验验证了我们算法的有效性。
整体结构图如下:
在这里插入图片描述

这里作者将BAM放在了Resnet网络中每个stage之间。有趣的是,通过可视化我们可以看到多层BAMs形成了一个分层的注意力机制,这有点像人类的感知机制。BAM在每个stage之间消除了像背景语义特征这样的低层次特征,然后逐渐聚焦于高级的语义–明确的目标(比如图中的单身狗)。

主要思想:
channel attention branch
对于给定的feature map F ∈ \in R C ∗ H ∗ W R^{C*H*W} RCHW,BAM可以得到一个3D的Attention map M(F) ∈ \in R C ∗ H ∗ W R^{C*H*W} R

  • 6
    点赞
  • 39
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
BAM attention是指瓶颈注意模块(Bottleneck Attention Module)。这是一种提高神经网络表示能力的新方法。BAM模块通过两种不同的途径有效地学习聚焦或抑制什么和哪里,并改进中间特征。灵感来源于人类视觉系统,在信息流动最关键的网络瓶颈处放置BAM注意模块。实验证实BAM在不同基准数据集上的性能优于所有基线,并且通过观察模块如何作用于中间特征图,我们可以更清晰地理解其类似于人类感知过程的层次推理过程,在瓶颈处的自适应特征细化的发现对其他视觉任务也有帮助。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [【CV中的Attention机制】CBAM的姊妹篇-BAM模块](https://blog.csdn.net/DD_PP_JJ/article/details/103826889)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [【注意力机制】BAM: Bottleneck Attention Module论文理解](https://blog.csdn.net/qq_36926037/article/details/117884889)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值