SA的空间注意力和通道注意力

Attention机制理解笔记(空间注意力+通道注意力+CBAM+BAM)_落了一地秋的博客-CSDN博客_空间注意力模型Attention机制理解笔记声明Attention分类(主要SA和CA)spitial attentionchannel attentionSA + CA(spitial attention+channel attention)加强SA+CA理解空间注意力机制和通道注意力机制解释attention机制Attention模型架构1.空间注意力模型(spatial attention)2.通道注意力机制3.空间和通道注意力机制的融合CBAM 和 BAMBLOG1的笔记重点及总结BLOG2重点看下这篇文章BAMhttps://blog.csdn.net/weixin_46239293/article/details/119739759?spm=1001.2101.3001.6650.5&utm_medium=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-5-119739759-blog-105760359.pc_relevant_recovery_v2&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-5-119739759-blog-105760359.pc_relevant_recovery_v2&utm_relevant_index=6注意力机制技术总结-技术圈STN(2015)论文原文:Spatial Transformer Networks这是一篇过时的文章,读者不必了解太多,但它的主要思想却值得写一下https://jishuin.proginn.com/p/763bfbd56c67

一、前言

SA(soft attention)包括空间注意力和通道注意力,目的是选择细粒度的重要像素点,是pixel级。

HD(hard attention):是 local 注意力,致力于搜索粗糙的潜在判别区域,它们是region级

空间注意力:
一般来说对于同一像素点不同通道求均值,再经过一些卷积和上采样的运算得到spitial attention mask,空间特征每层像素点被赋予不同的权重

通道注意力:

就是针对 N C H W 的每个C赋予权重

空间注意力 + 通道注意力:

有BAM和CBAM两种代码方式,spitial attention 矩阵与channel attention矩阵相乘得到 SA+CA的效果。

二、Bottlenet attention Module(BAM 2018)

具体结构如下图所示:利用了空洞卷积来获取更大的感受野,增加了通道注意力,方式是在feature map上全局平均池化,再降维升维,如右下角所示使用了上面那篇论文中的Attention Residual learning方式来融合。

 三、Convolutional Block Attention Module (CBAM 2018

CBAM同样是使用空间注意力和通道注意力,不过与BAM不同的是,通道注意力并不是像BAM那样融合在空间注意力内再做归一化,而是先后分开进行

通道注意力的生成方式:先在feature maps上进行全局最大池化和全局平均池化得到两个1维向量,再经过共享的MLP层,再进行相加,sigmoid归一化。

空间注意力的生成方式:在通道上进行最大池化和平均池化,得到两个feature map,经过7x7卷积,得到一个feature map,再BN,sigmoid归一化。

注:这种空间注意力只考虑了局部信息,在后面CVPR2021的Coordinate Attention中有所改进。

四、Coordinate Attention(2021)

这篇论文基于SE和CBAM改进而来,作者认为SE没有考虑空间信息CBAM通过对每个位置的通道上进行池化,由于经过几层卷积和降采样后的feature maps的每个位置只包含原图的一个局部区域,因此这种做法只考虑了局部区域信息。为此,作者提出了一种新的attention机制--Coordinate Attention。

Coordinate Attention利用两个1D全局池化操作将沿垂直和水平方向的input features分别聚合为两个单独的direction-aware feature maps。 然后将具有嵌入的特定方向信息的这两个特征图分别编码为两个attention map,每个attention map都沿一个空间方向捕获输入特征图的远距离依存关系。 位置信息因此可以被保存在所生成的attention map中。 然后通过乘法将两个attention map都应用于input feature maps,以强调注意区域的表示。

具体结构如图c所示,简单说来,Coordinate Attention是通过在水平方向和垂直方向上进行平均池化,再进行transform对空间信息编码,最后把空间信息通过在通道上加权的方式融合。

五、其他注意力机制的参考论文

1. Spatial Transformer Networks

2. Object-Part Attention Model for Fine-grained Image Classifification

3. Residual Attention Network for Image Classifification

4. BAM: Bottleneck Attention Module

5. CBAM: Convolutional Block Attention Module

6. Non-local Neural Networks

7. Pyramid Attention Network for Semantic Segmentation

8. Squeeze-and-Excitation Networks

9. CCNet: Criss-Cross Attention for Semantic Segmentation

10. GCNet: Non-local Networks Meet Squeeze-Excitation Networks and Beyond

11. Dual Attention Network for Scene Segmentation

12. Coordinate Attention for Effificient Mobile Network Design

  • 6
    点赞
  • 56
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
空间注意力是Transformer模型中的一种注意力机制,用于捕捉输入序列中不同位置之间的相关性和依赖关系。在Transformer中,空间注意力通过计算输入序列中每个位置与其他所有位置之间的相似度来实现。这种相似度计算可以通过计算两个位置之间的点积得到。然后,通过对相似度进行归一化处理,可以得到每个位置对所有位置的注意力权重。最后,通过将输入序列与注意力权重进行加权求和,可以得到每个位置的表示。这种表示可以传递给后续的层进行进一步处理。 引用中的论文"Aattention is all you need"提出了Transformer模型的基本思想,并引入了空间注意力的概念。在这篇论文中,作者使用了多头注意力机制来增强模型的表示能力,每个注意力头都可以学习不同的相关性和依赖关系。这种多头注意力机制可以在不同的尺度上捕捉输入序列的信息,并提供更全面的表示。 因此,空间注意力在Transformer模型中起着至关重要的作用,它通过计算输入序列中位置之间的相似度来捕捉位置之间的相关性和依赖关系,从而提供更准确和鲁棒的表示。这使得Transformer模型在处理各种序列任务中表现出色。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [用于Transformer的6种注意力的数学原理和代码实现](https://blog.csdn.net/m0_46510245/article/details/123864045)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [注意力机制 - Transformer](https://blog.csdn.net/mynameisgt/article/details/126842305)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值