SegNet——论文笔记

1、什么是语义分割(semantic segmentation)?

图像语义分割,简而言之就是对一张图片上的所有像素点进行分类,将所有属于同一类的物体标记为同一像素点。

seg.jpg

SegNet基于FCN,修改VGG-16网络得到的语义分割网络。

2、SegNet(A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation)

在这里插入图片描述

SegNet 有一个编码器网络和一个相应的解码器网络,然后是最终的逐像素分类层。

编码器

  • 在编码器处,执行卷积和最大池化。
  • VGG16 有 13 个卷积层,将原始的全连接层被替换成解码器。
  • 在每个卷积层后添加Batch Normalization层。
  • 在进行 2×2 最大池化时,会存储相应的最大池化索引(位置),用于解码器的反池化操作。

在这里插入图片描述

解码器

  • 在解码器处,执行上采样和卷积。最后,每个像素都有一个 Softmax 分类器。
  • 在上采样期间,调用相应编码器层的最大池化索引以进行上采样,如上所示。
  • 最后,使用 K (分类数量)类 Softmax 分类器来预测每个像素点所属的类别。

上采样的方式

目前上采样的方式有两种,一种是反卷积,另一种是双线性插值。但与其他分割网络不一样的是,SegNet采用了带索引的反池化操作,进一步提高的特征传递的准确性。

损失函数

SegNet是逐像素点预测的,因此对于每个像素点来说,Ground Truth不是0就是1,即使分割图像是单通道的(依据分类数给出索引),那也可以变成One-Hot的形式,例如VOC的label就是21通道的。

所以根据像素点的预测方式,使用交叉熵就可以了。当然,后人改进采用了dice loss、focal loss等,在这里就不展开论述了。

预测精度

作者的数据是基于道路场景分割的 CamVid 数据集所训练的结果,SegNet的预测精度如图所示:

在这里插入图片描述

内存和推理时间

在这里插入图片描述

  • SegNet 比FCN和DeepLabv1慢,因为 SegNet 包含解码器架构,这一块主流的深度学习框架优化做的比较少,多数是以用户自己编写自定义层来实现。
  • 并且 SegNet 在训练和测试期间都具有较低的内存需求。并且模型尺寸比FCN和DeconvNet 小得多。

3、总结

SegNet原理非常简单,特点就是采用了带索引的池化层和根据索引的反池化层,网络结构上也是采用了VGG16的backbone。但由于目前主流的神经网络框架没有针对池化和反池化操作进行优化,所以SegNet的推理时间会比较长,而从预测指标上来看,也没有非常惊艳的结果。所以SegNet只能说是在池化操作上提出了一些奇淫技巧。

4、实现代码

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值