论文阅读-(CCNet)Criss-Cross Attention for Semantic Segmentation

本文介绍了一种名为CCNet的语义分割方法,它通过交叉注意力模块(CCA)有效地获取上下文信息,同时减少了计算复杂度。与Non-local操作相比,CCNet在GPU占用和浮点运算上都有显著优势。尽管Non-local操作能获取全局信息,但计算成本高,而CCNet则通过交叉注意力实现高效的信息聚合,适用于密集上下文信息的获取。网络结构包括特征提取、CCA模块和全局信息聚合,旨在解决全卷积网络中局部上下文信息不足的问题。
摘要由CSDN通过智能技术生成

相关论文 non local 操作

  1. 要点:
    criss-cross attention module 获得上下文信息
    循环操作, 每一个像素可以获得全图信息

  2. 优势:
    与non-local 操作相比,少了85%的浮点运算,
    与non-local 操作相比,GPU占用率时1/11
    state of the art

  3. 现存问题
    Due to the fixed geometric structures, they are inherently limited to local receptive fields and short-range contextual information.导致全卷积神经网络没有足够的上下文信息

  4. 现存解决方案:

    • ASPP
      不足:从周围像素获取信息,不能获得dense contextual information
    • 金字塔池化
      均等的上下文信息被所有像素所采纳,不符合不同的像素有不同的依赖
    • non local 操作
      O((H × W ) × (H × W )) in time and space
      在这里插入图片描述
  5. 网络结构
    (1)基本结构

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值