论文阅读学习 - Fast R-CNN

Fast R-CNN是基于R-CNN和SPPNet改进的目标检测算法,它解决了两者的速度和精度问题。通过RoI Pooling层实现固定尺寸特征,结合multi-task loss进行端到端训练,提高了检测质量和训练效率,同时消除了特征存储需求。Fast R-CNN在训练和测试阶段均优于R-CNN和SPPNet,是目标检测领域的重要进步。
摘要由CSDN通过智能技术生成

Fast R-CNN

Fast R-CNN - Fast Regin-based Convolutional Network for Objection Detection

[Paper]

[Code-Caffe]

1. R-CNN

R-CNN 采用深度网络来对 object proposals 分类以进行目标检测,其缺点如下:

  • 训练是 multi-stage 的.

    • a). R-CNN 首先采用 log loss 对 object proposals 微调 ConvNet;
    • b). 然后将 ConvNet 特征送入 SVMs 分类器. 将 SVMs 作为目标检测器,取代微调的 softmax 分类器;
    • c). 学习 bounding-box 回归器.
  • 训练的空间和时间代价较高.

    训练 SVM 和 bounding-box 回归器时,需要对每张图像的每个 object proposal 进行特征提取,并写入磁盘.

    采用深度网络,比如 VGG16,对 VOC07 trainval 数据集的 5K 张图片,这个过程需要 2.5 GPU-days;且提取的特征需要大量的存储空间.

  • 目标检测速度慢.

    测试时,对每张测试图片的每个 object proposal 进行特征提取.

    基于 VGG16 的检测,单张 GPU 卡,每张图片需要 47s.

2. SPPNet

由于 R-CNN 需要对每个 object proposal 进行 ConvNet 前向计算,且没有共享计算,造成其速度较慢.

SPPNets,Spatial Pyramid Pooling Networks,通过共享计算来提高 R-CNN 的速度.

SPPNets 对整张输入图片计算一个卷积 feature map,采用从共享特征图(feature map)提取的特征向量来对每个 object proposal 进行分类.

每个 proposal 的特征提取,是采用 max-pooling 将 proposal 的特征图的一部分转换成固定尺寸的输出(fixed-size output, e.g. 6*6) 得到的. 多个输出尺寸采用 pool 操作,并连接为空间金字塔池化(spatial pyramid pooling).

SPPNet 的测试效率,是 R-CNN 的 10 - 100 倍. 由于较快的特征提取速度,训练时间也降低了 3 倍.

但,SPPNet 的明显缺点在于:

  • 类似于 R-CNN,其训练也是 multi-stage 的,包括,特征提取,利用 log loss 微调网络,训练 SVMs 分类器,以及拟合 bounding-box 回归器.
  • 特征也需要写入磁盘.
  • 与 R-CNN 不同在于,SPPNets 的微调算法不能对 spatial pyramid pooling 的卷积层进行更新,这也就限制了其在深度网络中的精度.

3. Fast R-CNN

相对于 R-CNN 和 SPPNet, Fast R-CNN 解决了以上它们的不足,并提升了速度和精度. 其优势在于,

  • 较高的检测质量(mAP)
  • 训练是 single-stage 的,采用了 multi-task loss
  • 训练可以对整个网络层进行更新
  • 不需要磁盘空间来缓存特征.

Fast R-CNN 网络结构为:
这里写图片描述
Figure 1. Fast R-CNN 结构. 一张输入图片和多个 RoIs 作为全卷积网络的输入,每个 RoI 被池化到一个固定尺寸的特征图,并采用全连接层映射为一个特征向量. 对于每个 RoI,网络有两个输出向量:softmax 概率和 per-class bounding-box 回归偏移值. 网络是采用 multi-task loss 进行 end-to-end 训练的.

Fast R-CNN 采用整张图片和 object proposals 集作为网络输入.

网络首先几个卷积层和 max-pooling 层对整张图片处理,得到一个 conv feature map.

然后,对每一个 object proposal,采用 RoI pooling 层从 feature map 中提取一个固定长度的特征向量;

每个特征向量被送入一系列的全连接层,最终有两个分支:一个分支得到 softmax 概率值,共 K 个 object 类和一个 background 类;另一个分支针对 K 个 object 类输出四个实值,分别表示了每类 object 的 bounding-box 位置.

3.1 RoI Pooling 层

RoI pooling 层采用 max-pooling 来将任何有效的 RoI 内的 features 转化为一个小的 feature map,其是固定空间尺寸( HW H ∗ W , e.g. 77 7 ∗ 7 )的. 其中 H H W 是独立于任何 RoI 超参数.

这里,一个 RoI 是在 conv feature map 的一个方框. 每个 RoI 是由四元组 (r,c,h,w) ( r , c , h , w ) 定义,分别指定了 RoI 的左上角 (r,c) ( r , c ) 和 高度和宽度 (h,w) ( h , w ) .

RoI max-pooling 层通过将 hw h ∗ w 的 RoI windows 分割为 HW H ∗ W 的 sub-windows 网格,共 h/Hw/W h / H ∗ w / W , 并对每个 sub-windows 的值进行 max-pooling 处理,得到对应的输出网格单元. 对每个 feature map channel 分别 pooling 处理,类似于 标准 max-pooling.

RoI 层可以简单的看成 SPPNet 中的 spatial pyramid pooling 层的一种特例.

RoI 是从原图RoI区域映射到卷积区域,最后pooling到固定大小的功能,通过池化把该区域的尺寸归一化成卷积网络输入的尺寸.

3.2 网络的初始化

基于在 ImageNet 预训练的网络来初始化 Fast R-CNN 网络.

基于 VGG16 的训练网络输出部分如图:
这里写图片描述

3.3 Fast R-CNN 训练

Fast R-CNN 训练过程中,SGD 先采样 N 张图像,再对每张图片采样 R/N R / N 个 RoIs,以分层采样 mini-batches.

相同图片的 RoIs 在前向和反向传播过程中,共享计算和内存.

Fast R-CNN 联合训练 softmax 分类器和 bounding-box 回归起,而分别训练 softmax 分类器,SVMs,回归器.

3.3.1 Multi-task loss

Fast R-CNN 网络有两个输出层,一个输出每个 RoI 对 K+1 K + 1 类object 的离散概率分布, p=(p0,,pK) p = ( p 0 , … , p K ) . 其中, p p 是对全连接层的 K + 1 个输出计算的 softmax 概率;另一个输出 K K 个 object 类的 bounding-box 回归偏移值,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值