论文:CGNet: A Light-weight Context Guided Network for Semantic Segmentation
Github: https://github.com/wutianyiRosun/CGNet
论文设计了Context Guided (CG) block,并且基于该block提出了Context Guided Network (CGNet) ,在Cityscapes数据集取得了 64.8% mean IoU并且少于 0.5 M 的参数量。
主要贡献:
- 在语义分割重,CGNet同时学习局部特征和全局特征。
- CG block可以很好的获得上下文纹理特征。
- 在有限的参数量下,CGNet超越了ENet和ESPNet。
三种语义分割的网络设计
- 全卷积FCN结构,忽略了上下文信息。
- Decode –Encode类型的网络结构,只包含了解码后的上下文信息。
- 本文提出的CGNet,包含了像素级别和分割级别的上下文纹理信息。
CG block:
输入图像首先经过1*1卷积处理,然后分别经过3*3的标准卷积floc和3*3的膨胀卷积fsur处理,分别得到局部特征和环绕局部特征。再特征concat融合后,经过BN+prelu,得到融合后的特征。然后经过一个通道维度的全局特征处理fglo,得到最终的结果。
网络结构:
CGNet的主要设计思想是,deep and thin,主要包含51层,3个stage,每一个stage的通道数分别为32,64,128。输入图像大小为680*680*3,下采样3次,输出图像大小为85*85。
环绕局部特征有效性验证:
全局特征有效性验证:
输入注射算法的有效性验证:
输入注射算法,是指的给stage2,3额外输入原始图像的下采样1/4和1/8的图像。
Relu和Prelu对比:
M,N个数对比:
实验结果:
总结:
- 上下文信息,或者感受野信息对于分割具有很大的影响,局部信息+全局信息有助于提高分割准确性。
- CGNet是一个快速的语义分割网络。