目标检测--SPP-Net

论文文献:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
算法流程图

在这里插入图片描述

1、SPP-Net解决的问题

R-CNN存在的问题
  1. 在用selective search方法对原图进行提取了2000个Proposal,在卷积之前要对每个Proposal进行Wrap或Crop,降低了检测的精确度。
  2. 对于每一个原图的Proposal都要进行一次卷积,也就是每张图2000次,计算量太大。
SPP-Net解决的策略
  1. 通过Spatial Pyramid Pooling解决了深度网络固定输入层尺寸的这个限制,使得网络可以享受不限制输入尺寸带来的好处。
  2. 对于每一张原图只需要整体卷积一次,然后将用selective search方法对原图进行提取的Proposal区域映射到卷积特征层从而得到全链接的输入层。

2、SPP-Net相对R-CNN的改进点

SPP-Net相对R-CNN的改进点

  1. 特征图上的对应的特征区域的维度不满足全连接层的输入要求?
    Spatial Pyramid Pooling Layer
    作者使用Spatial Pyramid Pooling解决了该问题,也就是在卷积层和全连接层之间增加一个Spatial Pyramid Pooling Layer。如上图所示,假设原图输入是224x224,对于conv5出来后的输出是13x13x256的,可以理解成有256个这样的Filter,每个Filter对应一张13x13的feature Map。如果像上图那样将feature Map分成1x1(金字塔底座),2x2(金字塔中间),4x4(金字塔顶座)三张子图,分别做Max Pooling后,出来的特征就是(16+4+1)x256 维度。即使原图的输入不是224x224,出来的特征依然是(16+4+1)x256维度。这样就实现了不管图像尺寸如何池化n的输出永远是 (16+4+1)x256 维度。
  2. 如何从一个region proposal 映射到feature map的位置?
    要搞定这个问题,需要首先清楚感受野等概念和计算方法。下面从感受野、感受野上面的坐标映射及原始图像的ROI如何映射三方面阐述。
  3. 感受野
    • 概念
      在卷积神经网络中,感受野的定义是卷积神经网络每一层输出的特征图(Feature Map)上的像素点在原始图像上映射的区域大小。
    • 计算方法
output field size = ( input field size - kernel size + 2*padding ) / stride + 1

其中output field size 是卷积层的输出,input field size 是卷积层的输入,也是上一层的感受野,所以,

input field size = (output field size - 1)* stride - 2*padding + kernel size
  1. 感受野上的坐标映射
    • 计算公式
      对于Convolution/Pooling Layer:
      在这里插入图片描述
      对于Neuronlayer(ReLU/Sigmoid/…):
      在这里插入图片描述
      其中p_i为第i层的感受野的坐标,s_i为Stride的大小,k_i为感受野的大小。
    • 例子
      上面是计算任意一个Layer输入输出的坐标映射关系,如果是计算任意Feature Map之间的关系,只需要用 简单的组合就可以得到,下图是一个简单的例子:
      在这里插入图片描述
    • 简化
      何凯明在SPP-NET中使用的是简化版本,将2小节公式中的Padding都设为 k_i/2 向下取整,然后简化为:
      在这里插入图片描述
  2. 原始图像的ROI如何映射(简化版)
    SPP-NET是把原始ROI的左上角和右下角 映射到Feature Map上的两个对应点。 有了Feature Map上的两队角点就确定了对应的Feature Map 区域(下图中橙色)。
    在这里插入图片描述
    左上角取,在这里插入图片描述右下角的点取在这里插入图片描述,在这里插入图片描述。其中S为坐标映射的简化计算版本,即所有步长的乘积。

SPP-Net的缺点

SPP也需要训练CNN提取特征,然后训练SVM分类这些特征。需要巨大的存储空间,并且分开训练也很复杂。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本课程适合具有一定深度学习基础,希望发展为深度学习之计算机视觉方向的算法工程师和研发人员的同学们。基于深度学习的计算机视觉是目前人工智能最活跃的领域,应用非常广泛,如人脸识别和无人驾驶中的机器视觉等。该领域的发展日新月异,网络模型和算法层出不穷。如何快速入门并达到可以从事研发的高度对新手和中级水平的学生而言面临不少的挑战。精心准备的本课程希望帮助大家尽快掌握基于深度学习的计算机视觉的基本原理、核心算法和当前的领先技术,从而有望成为深度学习之计算机视觉方向的算法工程师和研发人员。本课程系统全面地讲述基于深度学习的计算机视觉技术的原理并进行项目实践。课程涵盖计算机视觉的七大任务,包括图像分类、目标检测、图像分割(语义分割、实例分割、全景分割)、人脸识别、图像描述、图像检索、图像生成(利用生成对抗网络)。本课程注重原理和实践相结合,逐篇深入解读经典和前沿论文70余篇,图文并茂破译算法难点, 使用思维导图梳理技术要点。项目实践使用Keras框架(后端为Tensorflow),学员可快速上手。通过本课程的学习,学员可把握基于深度学习的计算机视觉的技术发展脉络,掌握相关技术原理和算法,有助于开展该领域的研究与开发实战工作。另外,深度学习之计算机视觉方向的知识结构及学习建议请参见本人CSDN博客。本课程提供课程资料的课件PPT(pdf格式)和项目实践代码,方便学员学习和复习。本课程分为上下两部分,其中上部包含课程的前五章(课程介绍、深度学习基础、图像分类、目标检测、图像分割),下部包含课程的后四章(人脸识别、图像描述、图像检索、图像生成)。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值