原论文链接:SegNet
ResNet传送门:Resnet-cifar10
Inceptionv3传送门:inceptionv3
逐像素的semantic segmentation是目前比较活跃的一个研究热点。在深度网络出现之前,效果比较好的方法有随机数,boosting等。而目前比较热门的语义分割结构有:U-Net、SegNet、DeepLab、FCN、ENet、LinkNet等等。这篇文章主要介绍SegNet的结构和tensorflow实现以及对应的CamVid数据集的使用方法。
SetNet是由Vijay、Alex等人发表在IEEE上的一种deep convolutional encoder-decoder 结构的图像分割方法。该分割的核心训练部分包含一个encoder network,一个相对应的decoder network,最后是一个逐像素的分类层。其中encoder network使用的是VGG16中的前13层卷积网络结构,只是添加了少许改动。decoder network的作用在于将原图像经由encoder network计算出的feature maps从低分辨率映射到和原图尺寸一致的分辨率以便于做逐像素的分类处理。而SegNet的创新就在于其decoder net对低分辨率的feature map(s)做上采样(upsample)的一个设计。其方法是,在encoder的每一个max-pooling过程中保存其池化索引(最大值的index),在decoder层使用这些得到的索引来做非线性上采样。这些经过上采样的特征图是稀疏的,再对其做可训练的卷积操作产生密集feature maps,最后将其送入multi-class softmax分类器中进行分类。 原文中作者将其与FCN、Deeplab、DeconvNet做了一个比较,有兴趣的可以看看论文。
下图为SegNet的结构图,从图来看,我们可以将其做成end-to-end的结构。
Encoder network
其encoder部分使用了VGG16的前13层卷积结构。即conv1_1-conv1_2-pool-conv2_1-conv2_2-pool-conv3_1-conv3_2-conv3_3-pool-conv4_1-conv4_2-conv4_3-pool的结构。每个conv层包含convolution+Batch normalization+ReLU操作。pool层采用2X2的窗口,以及stride 2的步长。每次pool层相当于对图像做一个分辨率减少一半的降采样。并在每次maxpool的过程中,将feature maps中的每个池化窗口中的最大值的位置记录下来。简而言之,你可以认为这就是一个VGG net,不过多了一步记录maxpool 索引的操作。事实上,大部分分割结构都使用相同的encoder 结构,其主要变化在于deco