文章阅读:Dual Attention Network for Scene Segmentation

原文地址Dual Attention Network for Scene Segmentation

概述

多尺度上下文融合的问题:
虽然上下文融合有助于捕获不同比例的对象,但它无法利用全局视图中对象或内容之间的关系,这对于场景分割也是必不可少的。
贡献:

  1. 提出了一种具有自我关注机制的新型双注意网络(DANet),以增强场景分割的特征表示的判别能力。
  2. 议使用位置注意模块来学习特征的空间相互依赖性,并设计通道注意模块来模拟通道相互依赖性。它通过在本地特征上建模丰富的上下文依赖关系,显着改善了分割结果。
  3. 在三个流行的基准测试中获得了最新的最新结果,包括Cityscapes数据集[5],PASCAL Context数据集[14]和COCO Stuff数据集[2]。

方法

双重注意网络结构图如下所示:

  • 文章采用预扩展的残余网络,deeplab v2作为主干,删除了下采样操作并在最后两个ResNet块中使用了扩散卷积,从而将最终特征映射大小的大小扩大到输入图像的1/8。
  • 来自扩张的残余网络的特征将被馈送到两个并行的注意模块中。
  • 对上面的乘法结果矩阵和原始特征执行逐元素和运算,以获得反映长程上下文的最终表示。同时,信道维度中的远程上下文信息由信道关注模块捕获。
  • 我聚合来自两个关注模块的输出,以获得更好的像素级预测的特征表示。

位置注意模块和通道注意模块的详细信息如(A)和(B)所示:
建议的Res路径。与其直接将编码器特征图与解码器特征

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值