语义分割之CGNet

 

论文:CGNet: A Light-weight Context Guided Network for Semantic Segmentation

Github: https://github.com/wutianyiRosun/CGNet

 

论文设计了Context Guided (CG) block,并且基于该block提出了Context Guided Network (CGNet) ,在Cityscapes数据集取得了 64.8% mean IoU并且少于 0.5 M 的参数量。

 

主要贡献:

  1. 在语义分割重,CGNet同时学习局部特征和全局特征。
  2. CG block可以很好的获得上下文纹理特征。
  3. 在有限的参数量下,CGNet超越了ENet和ESPNet。

三种语义分割的网络设计

  1. 全卷积FCN结构,忽略了上下文信息。
  2. Decode –Encode类型的网络结构,只包含了解码后的上下文信息。
  3. 本文提出的CGNet,包含了像素级别和分割级别的上下文纹理信息。

CG block:

输入图像首先经过1*1卷积处理,然后分别经过3*3的标准卷积floc和3*3的膨胀卷积fsur处理,分别得到局部特征和环绕局部特征。再特征concat融合后,经过BN+prelu,得到融合后的特征。然后经过一个通道维度的全局特征处理fglo,得到最终的结果。

 

网络结构:

CGNet的主要设计思想是,deep and thin,主要包含51层,3个stage,每一个stage的通道数分别为32,64,128。输入图像大小为680*680*3,下采样3次,输出图像大小为85*85。

环绕局部特征有效性验证:

全局特征有效性验证:

输入注射算法的有效性验证:

输入注射算法,是指的给stage2,3额外输入原始图像的下采样1/4和1/8的图像。

Relu和Prelu对比:

M,N个数对比:

实验结果:

总结:

  1. 上下文信息,或者感受野信息对于分割具有很大的影响,局部信息+全局信息有助于提高分割准确性。
  2. CGNet是一个快速的语义分割网络。

 

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值