[深度学习]Object detection物体检测之DSSD(10)

目录

主要改进

提出的动机

Deconvolutional SSD

Prediction module

Deconvolution Module

使用K-means 方法 setting prior box aspect ratio

Result


论文全称:《DSSD : Deconvolutional Single Shot Detector》

论文地址:https://arxiv.org/pdf/1701.06659.pdf

主要改进

DSSD相比于SSD主要有两方面的改进:

 

  • 1.使用了Residual-101代替了VGG,减少参数的同时加深模型的深度,可以提高检测的正确率。
  • 2.在SSD特征层的末尾添加deconvolution layers,集成上下文的信息,提升低层的语义信息,提高对小物体的检测正确率。
  • 3.使用K-means 方法 setting prior box aspect ratio

提出的动机

大多数的目标检测方法,包括SPPnet,Fast R-CNN,Faster R-CNN , RFCN和YOLO,使用ConvNet的最顶层来学习在不同尺度下检测对象。虽然功能强大,但它利用单个层建模为所有可能的对象比例和形状带来了很大的负担。

有很多方法提出了利用ConvNet网络中的多层来提高检测效果,这要有两种方法

  1. 第一组方法结合了ConvNet中不同层的feature map,并使用组合feature map进行预测。例如ION,HyperNet。然而,组合特征映射不仅显著增加了模型的内存占用,而且降低了模型的速度
  2. 另一组方法使用ConvNet中的不同层用于预测不同尺度的物体。例如SSD,MS-CNN。然而,为了更好地检测小对象,这些方法需要利用小接受域和密集特征映射的浅层信息,这可能会导致小对象性能低下,因为浅层对对象的语义信息较少

通过使用deconvolution layersskip connections,可以在密集(deconvolution)特征映射中注入更多的语义信息,从而帮助预测小对象。该方法不仅解决了卷积神经网络中特征图分辨率下降的问题,而且为预测提供了上下文信息。

Deconvolutional SSD

从下图可以看出,Deconvolutional SSD是一个非对称的网络结构,之所以没有使用很深的对称结构的原因有两个:

  1. 首先,检测是视觉中的基本任务,因此,速度是一个重要的因素。构建对称网络意味着推理时间将增加一倍。这不是我们在这个快速检测框架中想要的。
  2. 其次,目前还没有针对ILSVRC CLS-LOC dataset的分类任务训练的decoder预训练模型,因为分类提供的是单个完整的图像标签,而不是检测中的局部标签。由于我们的decoder解码器没有预先训练好的模型,不能利用解码层的transfer learning转移学习,因此解码层必须从随机初始化开始训练。deconvolution layers的一个重要方面是计算成本,特别是在除deconvolution layers过程之外还从前一层添加信息时。

 

 

Prediction module

MS-CNN指出,改进每个任务的子网络可以提高准确率。按照这个原则,作者为每个预测层添加一残差块。这一部分跟SSD合在一起预测非常不同。对于不同的分辨率的检测区别开来。

Deconvolution Module

Deconvolution Module的灵感来自Pinheiro等人,他们提出,用于细化网络的Deconvolution Module的分解版本与更复杂的Deconvolution Module具有相同的准确度,而且分解版本的网络将更加高效。

作者对Pinheiro等提出的方法进行以下修改:

  1. 首先,在每个卷积层之后添加一个batch normalization layer批规格化层。
  2. 其次,使用经过训练的 deconvolution layer而不是bilinear upsampling双线性上采样。
  3. 最后,测试了不同的组合方法:element-wise sum元素相加和element-wise product元素乘积。实验结果表明,element-wise product元素乘积的精度最高。

 

 

使用K-means 方法 setting prior box aspect ratio

在原始的SSD模型中,长宽比为2和3的boxes从实验中被证明是有用的。为了了解训练数据(PASCAL VOC 2007和2012 trainval)中boxes的长宽比,以方框面积平方根为特征,对训练盒进行K-means聚类。因为SSD框架将输入的大小调整为正方形,并且大多数训练图像更宽,所以大多数边界框更高也就不足为奇了。根据这张表,我们可以看到大多数的方框比率都在1-3之间。因此,作者决定在每个预测层增加一个纵横比1.6,和使用(1.6,2.0,3.0)。

Result

下面这张图可以看车prediction module ,deconvolutional module 对结果的改进。

论文还提供了PASCAL VOC and COCO不同数据集的结果,这里不再细说。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本课程适合具有一定深度学习基础,希望发展为深度学习之计算机视觉方向的算法工程师和研发人员的同学们。基于深度学习的计算机视觉是目前人工智能最活跃的领域,应用非常广泛,如人脸识别和无人驾驶中的机器视觉等。该领域的发展日新月异,网络模型和算法层出不穷。如何快速入门并达到可以从事研发的高度对新手和中级水平的学生而言面临不少的挑战。精心准备的本课程希望帮助大家尽快掌握基于深度学习的计算机视觉的基本原理、核心算法和当前的领先技术,从而有望成为深度学习之计算机视觉方向的算法工程师和研发人员。本课程系统全面地讲述基于深度学习的计算机视觉技术的原理并进行项目实践。课程涵盖计算机视觉的七大任务,包括图像分类、目标检测、图像分割(语义分割、实例分割、全景分割)、人脸识别、图像描述、图像检索、图像生成(利用生成对抗网络)。本课程注重原理和实践相结合,逐篇深入解读经典和前沿论文70余篇,图文并茂破译算法难点, 使用思维导图梳理技术要点。项目实践使用Keras框架(后端为Tensorflow),学员可快速上手。通过本课程的学习,学员可把握基于深度学习的计算机视觉的技术发展脉络,掌握相关技术原理和算法,有助于开展该领域的研究与开发实战工作。另外,深度学习之计算机视觉方向的知识结构及学习建议请参见本人CSDN博客。本课程提供课程资料的课件PPT(pdf格式)和项目实践代码,方便学员学习和复习。本课程分为上下两部分,其中上部包含课程的前五章(课程介绍、深度学习基础、图像分类、目标检测、图像分割),下部包含课程的后四章(人脸识别、图像描述、图像检索、图像生成)。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值