Python 全栈体系【四阶】(三十七)

第五章 深度学习

八、目标检测

3. 目标检测模型

3.1 R-CNN 系列
3.1.1 R-CNN
3.1.1.1 定义

R-CNN(全称 Regions with CNN features) ,是 R-CNN 系列的第一代算法,其实没有过多的使用“深度学习”思想,而是将“深度学习”和传统的“计算机视觉”的知识相结合。比如 R-CNN pipeline 中的第二步和第四步其实就属于传统的“计算机视觉”技术。使用 selective search 提取 region proposals,使用 SVM 实现分类。

在这里插入图片描述

3.1.1.2 思路
  • 给定一张图片,从图片中选出 2000 个独立的候选区域(Region Proposal)。
  • 将每个候选区域输入到预训练好的 AlexNet 中,提取一个固定长度(4096)的特征向量。
  • 对每个目标(类别)训练一 SVM 分类器,识别该区域是否包含目标。
  • 训练一个回归器,修正候选区域中目标的位置:对于每个类,训练一个线性回归模型判断当前框定位是否准确。
3.1.1.3 训练
  • 使用区域生成算法,生成 2000 个候选区域,这里使用的是 Selective search。

  • 对生成的 2000 个候选区域,使用预训练好的 AlexNet 网络进行特征提取。将候选区域变换到网络需要的尺寸(227×227)。 在进行变换的时候,在每个区域的边缘添加 p 个像素(即添加边框,设置 p=16)。同时,改造预训练好的 AlexNet 网络,将其最后的全连接层去掉,并将类别设置为 21(20 个类别,另外一个类别代表背景)。每个候选区域输入到网络中,最终得到 4096×21 个特征。

在这里插入图片描述

  • 利用上面提取到的候选区域的特征,对每个类别训练一个 SVM 分类器(二分类),判断候选框中物体的类别,输出 Positive/Negative。如果该区域与 Ground truth 的 IOU 低于某个阈值,就将给区域设置为 Negative(阈值设置为 0.3)。如下图所示:

在这里插入图片描述

3.1.1.4 效果
  • R-CNN 在 VOC 2007 测试集上 mAP 达到 58.5%,打败当时所有的目标检测算法。
3.1.1.5 缺点
  • 重复计算,训练耗时,每个 region proposal,都需要经过一个 AlexNet 特征提取,为所有的 RoI(region of interest)提取特征大约花费 47 秒。
  • 训练占用空间,特征文件需要保存到文件,5000 张的图片会生成几百 G 的特征文件。
  • selective search 方法生成 region proposal,对一帧图像,需要花费 2 秒。
  • 三个模块(提取、分类、回归)是分别训练的,并且在训练时候,对于存储空间消耗较大。
3.1.2 Fast R-CNN
3.1.2.1 定义

Fast R-CNN 是基于 R-CNN 和 SPPnets 进行的改进。SPPnets,其创新点在于只进行一次图像特征提取(而不是每个候选区域计算一次),然后根据算法,将候选区域特征图映射到整张图片特征图中。

在这里插入图片描述

3.1.2.2 流程
  • 使用 selective search 生成 region proposal,大约 2000 个左右区域候选框

  • 使用 CNN 对图像进行卷积运算,得到整个图像的特征图

  • 对于每个候选框,通过 RoI Projection 映射算法取出该候选框的特征图,再通过 RoI 池化层形成固定长度的特征向量

  • 每个特征向量被送入一系列全连接(fc)层中,最终分支成两个同级输出层 :一个输出个类别加上 1 个背景类别的 Softmax 概率估计,另一个为个类别的每一个类别输出 4 个定位信息

3.1.2.3 改进
  • 和 RCNN 相比,训练时间从 84 小时减少为 9.5 小时,测试时间从 47 秒减少为 0.32 秒。在 VGG16 上,Fast RCNN 训练速度是 RCNN 的 9 倍,测试速度是 RCNN 的 213 倍;训练速度是 SPP-net 的 3 倍,测试速度是 SPP-net 的 3 倍
  • Fast RCNN 在 PASCAL VOC 2007 上准确率相差无几,约在 66~67%之间
  • 加入 RoI Pooling,采用一个神经网络对全图提取特征
  • 在网络中加入了多任务函数边框回归,实现了端到端的训练
3.1.2.4 缺点
  • 依旧采用 selective search 提取 region proposal(耗时 2~3 秒,特征提取耗时 0.32 秒)
  • 无法满足实时应用,没有真正实现端到端训练测试
  • 利用了 GPU,但是 region proposal 方法是在 CPU 上实现的
3.1.3 Faster RCNN

经过 R-CNN 和 Fast-RCNN 的积淀,Ross B.Girshick 在 2016 年提出了新的 Faster RCNN,在结构上将特征抽取、region proposal 提取, bbox regression,分类都整合到了一个网络中,使得综合性能有较大提高,在检测速度方面尤为明显。

在这里插入图片描述

3.1.3.1 整体流程
  • Conv Layers。作为一种 CNN 网络目标检测方法,Faster RCNN 首先使用一组基础的卷积/激活/池化层提取图像的特征,形成一个特征图,用于后续的 RPN 层和全连接层。
  • Region Proposal Networks(RPN)。RPN 网络用于生成候选区域,该层通过 softmax 判断锚点(anchors)属于前景还是背景,在利用 bounding box regression(包围边框回归)获得精确的候选区域。
  • RoI Pooling。该层收集输入的特征图和候选区域,综合这些信息提取候选区特征图(proposal feature maps),送入后续全连接层判定目标的类别。
  • Classification。利用取候选区特征图计算所属类别,并再次使用边框回归算法获得边框最终的精确位置。
3.1.3.2 RPN 网络

RPN 网络全称 Region Proposal Network(区域提议网络),是专门用来从特征图生成候选区域的网络。其结构如下所示:

在这里插入图片描述

流程步骤:

(1)输入:通过主干网卷积得到的特征图

(2)对于特征图上的每一个点(称之为 anchor point,锚点),生成具有不同 尺度 和 宽高比 的锚点框,这个锚点框的坐标(x,y,w,h)是在原图上的坐标

(3)然后将这些锚点框输入到两个网络层中去,一个(rpn_cls_score)用来分类,即这个锚点框里面的特征图是否属于前景;另外一个(rpn_bbox_pred)输出四个位置坐标(相对于真实物体框的偏移)

(4)将锚点框与 Ground Truth 中的标签框进行 IoU 对比,如果其 IoU 高于某个阈值,则该锚点框标定为前景框,否则属于背景框;对于前景框,还要计算其与真实标签框的 4 个位置偏移;将这个标注好的锚点框(带有 前背景类别 和 位置偏移 标注)与 3 中卷积网络层的两个输出进行 loss 比较(类别:CrossEntrpy loss 和 位置回归:smooth L1 loss),从而学习到如何提取前景框

(5)学习到如何提取前景框后,就根据 rpn_cls_score 层的输出概率值确定前景框;位置偏移值则被整合到锚点框的坐标中以得到实际的框的坐标;这样子就得到了前景框,起到了 selective search 的作用。RPN 生成的 proposal 就称为 Region of Interest.由于他们具有不同的尺度和长度,因此需要通过一个 ROI pooling 层获得统一的大小

3.1.3.3 Anchors

Anchors(锚点)指由一组矩阵,每个矩阵对应不同的检测尺度大小。如下矩阵:

[[ -84.  -40.  99.  55.]
 [-176.  -88. 191. 103.]
 [-360. -184. 375. 199.]
 [ -56.  -56.  71.  71.]
 [-120. -120. 135. 135.]
 [-248. -248. 263. 263.]
 [ -36.  -80.  51.  95.]
 [ -80. -168.  95. 183.]
 [-168. -344. 183. 359.]]

其中每行 4 个值( x 1 , y 1 , x 2 , y 2 x_1, y_1, x_2, y_2 x1,y1,x2,y2),对应矩形框左上角、右下角相对于中心点的偏移量。9 个矩形共有三种形状,即 1:1, 1:2, 2:1,即进行多尺度检测。

在这里插入图片描述

例如,一张 800*600 的原始图片,经过 VGG 下采样后(生成特征矩阵)16 倍大小,大小变为 50*38,每个点设置 9 个 anchor,则总数为:

ceil(800 / 16) * ceil(600 / 16) * 9 = 50 * 38 * 9 = 17100
3.1.3.4 Bounding box regression

物体识别完成后,通过一种方式对外围框进行调整,使得和目标物体更加接近。

3.1.3.5 损失函数

对一个图像的损失函数,是一个分类损失函数与回归损失函数的叠加:

L ( { p i } , { t i } ) = 1 N c l s ∑ L c l s ( p i , p i ∗ ) + λ 1 N r e g ∑ p i ∗ L r e g ( t i , t i ∗ ) L(\{p_i\},\{t_i\}) = \frac{1}{N_{cls}}\sum{L_{cls}(p_i, p_i^*)} + \lambda\frac{1}{N_{reg}}\sum{p_i^*L_{reg}(t_i, t_i^*)} L({pi},{ti})=Ncls1Lcls(pi,pi)+λNreg1piLreg(ti,ti)

  • i 是一个 mini-batch 中 anchor 的索引

  • p i p_i pi是 anchor i 为目标的预测概率

  • ground truth 标签 p i ∗ p_i^* pi就是 1,如果 anchor 为负, p i ∗ p_i^* pi就是 0

  • t i t_i ti是一个向量,表示预测的包围盒的 4 个参数化坐标

  • N c l s N_{cls} Ncls是与正 anchor 对应的 ground truth 的坐标向量

  • N r e g N_{reg} Nreg为 anchor 位置的数量(大约 2400), λ \lambda λ=10

分类损失函数:

L c l s ( p i , p i ∗ ) = − l o g [ p i ∗ p i + ( 1 − p i ∗ ) ( 1 − p i ) ] L_{cls}(p_i, p_i^*) = -log[p_i^*p_i + (1-p_i^*)(1-p_i)] Lcls(pi,pi)=log[pipi+(1pi)(1pi)]

位置损失函数:

L r e g ( t i , t i ∗ ) = R ( t i − t i ∗ ) L_{reg}(t_i, t_i^*) = R(t_i - t_i^*) Lreg(ti,ti)=R(titi)

其中:

R = s m o o t h L 1 ( x ) = { 0.5 x 2    i f ∣ x ∣ < 1 ∣ x ∣ − 0.5    o t h e r w i s e R = smooth_{L1}(x) = \begin{cases}{0.5x^2} \ \ if |x| < 1\\ |x|-0.5 \ \ otherwise \end{cases} R=smoothL1(x)={0.5x2  ifx<1x0.5  otherwise

3.1.3.6 改进
  • 在 VOC2007 测试集测试 mAP 达到 73.2%,目标检测速度可达 5 帧/秒
  • 提出 Region Proposal Network(RPN),取代 selective search,生成待检测区域,时间从 2 秒缩减到了 10 毫秒
  • 真正实现了一个完全的 End-To-End(端对端)的 CNN 目标检测模型
  • 共享 RPN 与 Fast RCNN 的特征
3.1.3.7 缺点
  • 还是无法达到实时检测目标
  • 获取 region proposal, 再对每个 proposal 分类计算量还是较大
3.1.4 RCNN 系列总结
3.1.4.1 RCNN

解决什么问题:能够从图像中检测出物体

使用了什么方法:

  • SS 算法产生候选区
  • 对每个候选区进行卷积,得到每个区域的特征图
  • 将特征图送到一组 SVM 做多分类,再训练一个模型定位

取得了什么效果:mAP 能达到 58.5%,速度极慢

特点及适用性:慢,几乎不用

3.1.4.2 Fast RCNN

解决什么问题:对 RCNN 模型进行优化,提升速度

使用了什么方法:

  • SS 算法产生候选区
  • 对整个图像进行卷积,得到整个图像的特征图(最主要的优化)
  • 将分类器、定位模型整合到一起,用神经网络来替代

取得了什么效果:

  • 速度:速度较上一代模型 RCNN 成倍提升,达到 0.5F/S
  • mAP:66~67%
3.1.4.3 Faster RCNN

解决什么问题:对 Fast RCNN 进行优化,提升速度和精度

使用了什么方法:

  • 改进候选区域产生方法:使用 RPN,在特征图而不是在原图上产生候选区,只需 10ms
  • 引入 Anchor Box 机制:在同一个检测点,使用大小不同、比例不同的检测框
  • 将所有步骤(提取特征、生成候选区、产生分类+定位输出)整合到同一个模型中

取得了什么效果:

  • 速度:5F / S
  • mAP:73.2%

特点及适用性:

  • 缺点:检测速度还是较慢,无法检测视频,无法实现实时性检测
  • 优点:精度不错
  • 适用性:适用于精度要求较高,速度要求不高的情况
  • 14
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

柠檬小帽

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值