Dual Attention Network for Scene Segmentation(场景分割中的双路注意力网络)DA-Net部分理解

 
一.主要贡献:
1.提出了一种具有自注意机制的双重注意网络,提高了场景分割中特征表示的能力;
2.提出了位置注意模块来学习特征的空间相关性,提出了通道注意模块来建模通道相关性,通过在局部特征上建模丰富的上下文依赖关系,极大地改善了分割结果;
3. 在Cityscapes dataset , PAS-CAL Context dataset and COCO Stuff dataset这三个数据集上都得到了极佳的结果。
 
二.整体流程:
1.首先输入一张图像,通过预训练的dilated ResNet输出feature map (注意: 在最后两个ResNet块中删除了下采样操作并使用了dilated convolutions,从而使最终特征图的大小扩大到输入图像的1/8 );
2.然后将feature map输入到position attention module和channel attention module这两个并行注意力模块中,去捕获spatial和channel的依赖性;
3.最后通过一个卷积层,对两个注意力模块的输出进行变换,再进行求和得到最终表示。
 
整体流程如下图所示
 
三.位置和通道注意力模块
 
1.Position attention module: 选择性地通过所有位置的加权求和聚集每个位置的特征,无论远近,相似的特征都会相互关联。
流程:
(1).给定一个局部特征 A,首先将其输入卷积层,分别生成3个新的特征映射 BCD,将 BCD reshape成CxN(N=HxW),再对 B进行转置;
(2).然后将reshape后的 C和reshape+transpose后的 B进行矩阵乘法,经过softmax得到空间注意力map: SSD相乘,再reshape回最初的大小;
(3).上述结果与 A相加得到 E
 
具体公式:
S的计算公式(ji表示位置i对位置j的影响):
(从上式可以看出, S矩阵其实就相当于是一个空间注意力矩阵。)
 
 
E的计算公式(尺度系数α被初始化为0,并逐渐的学习分配到更大的权重):
 
 
2.Channel attention module: 捕获任意两个通道图之间的通道依赖关系,并使用所有通道图的加权和来更新每个通道图。
 
流程:
通道注意力模块的第一步处理与位置注意力模块的有所不同,它是直接从 A进行计算的;
其他的reshape、transpose、矩阵乘法等操作均与位置注意力模块的一样。
 
具体公式:
X的计算公式(ji表示通道i对通道j的影响):
X矩阵也就相当于是一个通道注意力矩阵。)
 
 
E的计算公式(尺度系数 β被初始化为0,并逐渐的学习分配到更大的权重):
 
四.两通道特征的融合
 
如整体流程图所示,网络的最后是将两个通道的输出通过一个卷积层,对其进行变换,再进行求和即可得到最终表示。
  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

画外人易朽

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值