Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation
论文:https://arxiv.org/abs/1802.02611v1
相关阅读:更多
方法
deeplab v3中介绍了Encoder-Decoder架构,其中Encoder采用CNNs,CNNs经过多次卷积和下采样,感受野也会越来越大。因此,本文deeplab v3+ 也尝试采用Encoder-Decoder架构,其中Encoder用于提取语义信息,Decoder模块来细化分割结果,特别是沿着对象边界。并且进一步探索了Xception模型,并将深度可分离卷积应用于空洞空间金字塔池化ASPP和 Decoder模块,从而获得更快、更强的Encoder-Decoder网络。
深度可分离卷积
深度可分离卷积是将一个标准卷积分解为深度卷积(类似于GoogLeNet的 Inception结构,如左图所示),然后再进行逐点卷积(即1 × 1卷积,用于“降维”),极大地降低了计算复杂度。具体来说,深度卷积对每个输入通道独立执行一个空间卷积,而点向卷积用于合并深度卷积的输出。在TensorFlow深度可分离卷积实现中,在深度卷积(即空间卷积)中支持了空洞卷积。在本工作中,我们将得到的卷积称为可分离卷积(见右图),发现可分离卷积在保持相似(或更好)性能的同时显著降低了所提模型的计算复杂度。