《DANet:Dual Attention Network for Scene Segmentation》论文笔记

本文介绍了DANet,一种利用self-attention机制增强上下文信息的场景分割方法。它结合了空间注意力和通道注意力模块,在单一尺度的特征图上进行优化,然后融合特征,实现分割性能提升。在Cityscape数据集上,DANet取得了81.5%的mIoU。
摘要由CSDN通过智能技术生成

代码地址:DANet/

1. 概述

导读:这篇文章通过self-attention机制去捕获更加丰富的上下文信息,并不同于之前的一些工作是在多个尺度(ASPP,Unet形式的网路等)上去获取上下文信息,这篇文章使用channel-wise和spatial-wise两种方式的attention机制在一个尺度(dilation FCN基础上)的特征图进行特征优化,之后再将这些特征elment-sum相加起来得到最后的融合特征(当然实际的处理并不是这么直接,论文里面的代码在细节上还是做了一些trick),从而构建了一个新的分割算法DANet。这样直观的优化策略带来的实际效果也是很好的,其在Cityscape数据集上达到了81.5%的mIoU。

2. 方法设计

文章提出的核心模块见下图1所示,主要是包含了Spatial-wise和Channel-wise上的Attention模块,之后再将优化后的特征图组合起来,送如最后的分类网络中得到最后的分类结果。
在这里插入图片描述

2.1 Spatial-wise Attention

文章在Spatial上的Attention见下图所示:
在这里插入图片描述
文章对输入的特征图首先使用3个卷积得到3个不同的特征图BCD,之后这些特征图经过矩阵变换与乘机得到对应的特征图S,在用这个特征图S去加权特征图在Spatial上的特征。其中:
s j i = e x p ( B i ⋅ C j ) ∑ i = 1 N ( e x p ( B i ⋅ C j ) ) s_{ji}=\frac{exp(B_i\cdot C_j)}{\sum_{i=1}^N(exp(B_i\cdot C_j))} sji=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值