基于深度学习的目标检测技术演进:从目标检测到人脸检测

 

本篇博客主要转载两篇写得好的分别介绍基于深度学习的目标检测和人脸检测的文章,最近在调研基于深度学习的人脸检测相关的文章,在网上查相关资料时,有幸看到。文末附带基于深度学习的目标检测和人脸检测相关经典文献及下载地址。


基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN

object detection我的理解,就是在给定的图片中精确找到物体所在位置,并标注出物体的类别。object detection要解决的问题就是物体在哪里,是什么这整个流程的问题。然而,这个问题可不是那么容易解决的,物体的尺寸变化范围很大,摆放物体的角度,姿态不定,而且可以出现在图片的任何地方,更何况物体还可以是多个类别。

object detection技术的演进: 
RCNN->SppNET->Fast-RCNN->Faster-RCNN

从图像识别的任务说起 
这里有一个图像任务: 
既要把图中的物体识别出来,又要用方框框出它的位置。

这里写图片描述

上面的任务用专业的说法就是:图像识别+定位 
图像识别(classification): 
输入:图片 
输出:物体的类别 
评估方法:准确率

这里写图片描述

定位(localization): 
输入:图片 
输出:方框在图片中的位置(x,y,w,h) 
评估方法:检测评价函数 intersection-over-union ( IOU )

这里写图片描述

卷积神经网络CNN已经帮我们完成了图像识别(判定是猫还是狗)的任务了,我们只需要添加一些额外的功能来完成定位任务即可。

定位的问题的解决思路有哪些? 
思路一:看做回归问题 
看做回归问题,我们需要预测出(x,y,w,h)四个参数的值,从而得出方框的位置。 
这里写图片描述

步骤1: 
  • 先解决简单问题, 搭一个识别图像的神经网络 
  • 在AlexNet VGG GoogleLenet上fine-tuning一下

这里写图片描述

步骤2: 
  • 在上述神经网络的尾部展开(也就说CNN前面保持不变,我们对CNN的结尾处作出改进:加了两个头:“分类头”和“回归头”) 
  • 成为classification + regression模式

这里写图片描述

步骤3: 
  • Regression那个部分用欧氏距离损失 
  • 使用SGD训练

步骤4: 
  • 预测阶段把2个头部拼上 
  • 完成不同的功能

这里需要进行两次fine-tuning 
第一次在ALexNet上做,第二次将头部改成regression head,前面不变,做一次fine-tuning

Regression的部分加在哪?

有两种处理方法: 
  • 加在最后一个卷积层后面(如VGG) 
  • 加在最后一个全连接层后面(如R-CNN)

regression太难做了,应想方设法转换为classification问题。 
regression的训练参数收敛的时间要长得多,所以上面的网络采取了用classification的网络来计算出网络共同部分的连接权值。

思路二:取图像窗口

• 还是刚才的classification + regression思路 
• 咱们取不同的大小的“框” 
• 让框出现在不同的位置,得出这个框的判定得分 
• 取得分最高的那个框

左上角的黑框:得分0.5

这里写图片描述

右上角的黑框:得分0.75

这里写图片描述

左下角的黑框:得分0.6

这里写图片描述

右下角的黑框:得分0.8

这里写图片描述

根据得分的高低,我们选择了右下角的黑框作为目标位置的预测。 
注:有的时候也会选择得分最高的两个框,然后取两框的交集作为最终的位置预测。

疑惑:框要取多大? 
取不同的框,依次从左上角扫到右下角。非常粗暴啊。

总结一下思路: 
对一张图片,用各种大小的框(遍历整张图片)将图片截取出来,输入到CNN,然后CNN会输出这个框的得分(classification)以及这个框图片对应的x,y,h,w(regression)。

这里写图片描述

这方法实在太耗时间了,做个优化。 
原来网络是这样的:

这里写图片描述

优化成这样:把全连接层改为卷积层,这样可以提提速。

这里写图片描述

物体检测(Object Detection) 
当图像有很多物体怎么办的?难度可是一下暴增啊。

那任务就变成了:多物体识别+定位多个物体 
那把这个任务看做分类问题?

这里写图片描述

看成分类问题有何不妥? 
  • 你需要找很多位置, 给很多个不同大小的框 
  • 你还需要对框内的图像分类 
  • 当然, 如果你的GPU很强大, 恩, 那加油做吧…

看做classification, 有没有办法优化下?我可不想试那么多框那么多位置啊! 
有人想到一个好方法: 
找出可能含有物体的框(也就是候选框,比如选1000个候选框),这些框之间是可以互相重叠互相包含的,这样我们就可以避免暴力枚举的所有框了。

这里写图片描述

大牛们发明好多选定候选框的方法,比如EdgeBoxes和Selective Search。 
以下是各种选定候选框的方法的性能对比。

这里写图片描述

有一个很大的疑惑,提取候选框用到的算法“选择性搜索”到底怎么选出这些候选框的呢?那个就得好好看看它的论文了,这里就不介绍了。

R-CNN横空出世

基于以上的思路,RCNN出现了。

这里写图片描述

步骤一:训练(或者下载)一个分类模型(比如AlexNet)

这里写图片描述

步骤二:对该模型做fine-tuning 
  • 将分类数从1000改为20 
  • 去掉最后一个全连接层

这里写图片描述

步骤三:特征提取 
  • 提取图像的所有候选框(选择性搜索) 
  • 对于每一个区域:修正区域大小以适合CNN的输入,做一次前向运算,将第五个池化层的输出(就是对候选框提取到的特征)存到硬盘

这里写图片描述

步骤四:训练一个SVM分类器(二分类)来判断这个候选框里物体的类别 
每个类别对应一个SVM,判断是不是属于这个类别,是就是positive,反之nagative 
比如下图,就是狗分类的SVM

这里写图片描述

步骤五:使用回归器精细修正候选框位置:对于每一个类,训练一个线性回归模型去判定这个框是否框得完美。

这里写图片描述

RCNN的进化中SPP Net的思想对其贡献很大,这里也简单介绍一下SPP Net。

SPP Net

SPP:Spatial Pyramid Pooling(空间金字塔池化) 
它的特点有两个:

1.结合空间金字塔方法实现CNNs的对尺度输入。 
一般CNN后接全连接层或者分类器,他们都需要固定的输入尺寸,因此不得不对输入数据进行crop或者warp,这些预处理会造成数据的丢失或几何的失真。SPP Net的第一个贡献就是将金字塔思想加入到CNN,实现了数据的多尺度输入。

如下图所示,在卷积层和全连接层之间加入了SPP layer。此时网络的输入可以是任意尺度的,在SPP layer中每一个pooling的filter会根据输入调整大小,而SPP的输出尺度始终是固定的。

这里写图片描述

2.只对原图提取一次卷积特征 
在R-CNN中,每个候选框先resize到统一大小,然后分别作为CNN的输入,这样是很低效的。 
所以SPP Net根据这个缺点做了优化:只对原图进行一次卷积得到整张图的feature map,然后找到每个候选框在feature map上的映射patch,将此patch作为每个候选框的卷积特征输入到SPP layer和之后的层。节省了大量的计算时间,比R-CNN有一百倍左右的提速。

这里写图片描述

Fast R-CNN

SPP Net真是个好方法,R-CNN的进阶版Fast R-CNN就是在RCNN的基础上采纳了SPP Net方法,对RCNN作了改进,使得性能进一步提高。

R-CNN与Fast RCNN的区别有哪些呢? 
先说RCNN的缺点:即使使用了selective search等预处理步骤来提取潜在的bounding box作为输入,但是RCNN仍会有严重的速度瓶颈,原因也很明显,就是计算机对所有region进行特征提取时会有重复计算,Fast-RCNN正是为了解决这个问题诞生的。

这里写图片描述

大牛提出了一个可以看做单层sppnet的网络层,叫做ROI Pooling,这个网络层可以把不同大小的输入映射到一个固定尺度的特征向量,而我们知道,conv、pooling、relu等操作都不需要固定size的输入,因此,在原始图片上执行这些操作后,虽然输入图片size不同导致得到的feature map尺寸也不同,不能直接接到一个全连接层进行分类,但是可以加入这个神奇的ROI Pooling层,对每个region都提取一个固定维度的特征表示,再通过正常的softmax进行类型识别。另外,之前RCNN的处理流程是先提proposal,然后CNN提取特征,之后用SVM分类器,最后再做bbox regression,而在Fast-RCNN中,作者巧妙的把bbox regression放进了神经网络内部,与region分类和并成为了一个multi-task模型,实际实验也证明,这两个任务能够共享卷积特征,并相互促进。Fast-RCNN很重要的一个贡献是成功的让人们看到了Region Proposal+CNN这一框架实时检测的希望,原来多类检测真的可以在保证准确率的同时提升处理速度,也为后来的Faster-RCNN做下了铺垫。

画一画重点: 
R-CNN有一些相当大的缺点(把这些缺点都改掉了,就成了Fast R-CNN)。 
大缺点:由于每一个候选框都要独自经过CNN,这使得花费的时间非常多。 
解决:共享卷积层,现在不是每一个候选框都当做输入进入CNN了,而是输入一张完整的图片,在第五个卷积层再得到每个候选框的特征

原来的方法:许多候选框(比如两千个)–>CNN–>得到每个候选框的特征–>分类+回归 
现在的方法:一张完整图片–>CNN–>得到每张候选框的特征–>分类+回归

所以容易看见,Fast RCNN相对于RCNN的提速原因就在于:不过不像RCNN把每个候选区域给深度网络提特征,而是整张图提一次特征,再把候选框映射到conv5上,而SPP只需要计算一次特征,剩下的只需要在conv5层上操作就可以了。 
在性能上提升也是相当明显的:

这里写图片描述

Faster R-CNN

Fast R-CNN存在的问题:存在瓶颈:选择性搜索,找出所有的候选框,这个也非常耗时。那我们能不能找出一个更加高效的方法来求出这些候选框呢? 
解决:加入一个提取边缘的神经网络,也就说找到候选框的工作也交给神经网络来做了。 
做这样的任务的神经网络叫做Region Proposal Network(RPN)。

具体做法: 
  • 将RPN放在最后一个卷积层的后面 
  • RPN直接训练得到候选区域

这里写图片描述

RPN简介: 
  • 在feature map上滑动窗口 
  • 建一个神经网络用于物体分类+框位置的回归 
  • 滑动窗口的位置提供了物体的大体位置信息 
  • 框的回归提供了框更精确的位置

这里写图片描述

一种网络,四个损失函数; 
  • RPN calssification(anchor good.bad) 
  • RPN regression(anchor->propoasal) 
  • Fast R-CNN classification(over classes) 
  • Fast R-CNN regression(proposal ->box)

这里写图片描述

速度对比

这里写图片描述

Faster R-CNN的主要贡献是设计了提取候选区域的网络RPN,代替了费时的选择性搜索,使得检测速度大幅提高。

最后总结一下各大算法的步骤:

RCNN 
  1. 在图像中确定约1000-2000个候选框 (使用选择性搜索) 
  2. 每个候选框内图像块缩放至相同大小,并输入到CNN内进行特征提取 
  3. 对候选框中提取出的特征,使用分类器判别是否属于一个特定类 
  4. 对于属于某一特征的候选框,用回归器进一步调整其位置

Fast RCNN 
  1. 在图像中确定约1000-2000个候选框 (使用选择性搜索) 
  2. 对整张图片输进CNN,得到feature map 
  3. 找到每个候选框在feature map上的映射patch,将此patch作为每个候选框的卷积特征输入到SPP layer和之后的层 
  4. 对候选框中提取出的特征,使用分类器判别是否属于一个特定类 
  5. 对于属于某一特征的候选框,用回归器进一步调整其位置

Faster RCNN 
  1. 对整张图片输进CNN,得到feature map 
  2. 卷积特征输入到RPN,得到候选框的特征信息 
  3. 对候选框中提取出的特征,使用分类器判别是否属于一个特定类 
  4. 对于属于某一特征的候选框,用回归器进一步调整其位置

总的来说,从R-CNN, SPP-NET, Fast R-CNN, Faster R-CNN一路走来,基于深度学习目标检测的流程变得越来越精简,精度越来越高,速度也越来越快。可以说基于region proposal的R-CNN系列目标检测方法是当前目标检测技术领域最主要的一个分支。


深度学习人脸检测综述

深度学习在计算机视觉的应用中已经十分广泛,其效果相比于传统方法也有很大的提高。本文就人脸检测这个领域,介绍深度学习在人脸检测领域的发展。

这里写图片描述

深度学习人脸检测最早的代表作之一是2015年CVPR的一篇论文《A Convolutional Neural Network Cascade for FaceDetection》,下文简称CascadeCNN。这篇文章保留了传统人脸检测方法中Cascade的概念,使用3个输入大小分别为12、24、48的浅层网络,在每个分类网络之后接一个矫正网络用于回归人脸框的位置。对比CascadeCNN和传统人脸检测方法,本文总结其相同点和不同点。相同点如下:1. 使用了Cascade级联结构,使用前面的stage快速过滤简单样本,后面的stage得到更为准确的分类结果;2. 图像金字塔结构,对于不同scale的人脸大小,通过缩放图像得到图像金字塔再进行处理;3. 滑动窗口加步长的处理模式;4. 最后处理结果根据IOU(intersection over union)大小使用NMS(Non-maximum suppression)方法进行窗口合并。不同点如下:1. 每个stage中CNN的分类器代替了传统的分类器;2. 每个分类stage之后应用了一个矫正网络使得人脸框的位置更为精确。该论文是当时基于CNN的人脸检测方法中速度最快的。

这里写图片描述

15年另一篇文章关于深度学习人脸检测比较有代表性的文章是《Multi-view Face Detection Using Deep Convolutional Neural Networks》。这篇文章使用的网络是AlexNet,由于网络的分类能力相对较强,该文没有采用Cascade结构。是图像金字塔依旧采用,每一层金字塔用AlexNet处理一遍。这篇文章的一个亮点是使用了全卷积网络,将全连接层修改参数排列方式变成卷积层,对输入图像的大小没有了限制。金字塔的每一层由AlexNet处理后出来的是一个HeatMap,HeatMap的每个点对应原图中一个区域。

这里写图片描述

2016年深度学习人脸检测相关的文章都流行起来multi-task的概念,将人脸检测(分类)和人脸框位置矫正(回归)以及人脸关键点定位、姿态、姿态等属性的检测相结合(笔者在实验中发现,除了人脸框位置回归,其他的task对人脸检测的精度没有任何提高)。相关文章有:《HyperFace: A Deep Multi-task Learning Framework for Face Detection, Landmark Localization, Pose Estimation, and Gender Recognition》、《Joint Training of Cascaded CNN for Face Detection》(后文简称JTCCNN)、《Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks》(后文简称MTCNN)。HyperFace的网络结构也是基于Alexnet的变形,其特点对每个task有一个512大小的fc层,在对应到不同的任务,具体网络结果参见附图。

这里写图片描述

JTCCNN和MTCNN两篇文章在思路和网络结构上有很多相同之处。这两个方法都是基于15年CascadeCNN这篇文章的思路进行延伸的。最大的不同点在于,JTCCNN将低层的特征连接到了高层,12net的特征会拼接到24net上,12和24拼接得到的特征又会进一步拼接到48net上,级联的概率体现在了网络内部,12net、24net、48net对应有自己的阈值,没有通过阈值的样本被判断为负样本。MTCNN则保持每个Cascade之间的net互不干涉,它在CascadeCNN的基础上,改进了网络结构,12net应用了全卷积的网络,应用到了multi-task引用人脸框回归和关键点,进一步调高了人脸检测的速度和精度。

这里写图片描述

这里写图片描述

今年人脸检测相关的文章更多关注到了人脸的scale,能否不需要这么多层的图像金字塔就能检测出不同尺度的人脸呢?《Finding tiny face》给出的答案是减少金字塔的层数,同时增加模板尺度这两种方式相结合,该文章同时实验验证,对于小人脸(图像中人脸大小小于20个像素),加入人脸周围的context上下文信息能极大的提高该人脸的检测率。《Scale-Aware Face Detection》这篇文章的思路比较奇特,先有一个Scale Proposal Network (SPN)得到图像上所有人脸的尺度大小信息,然后根据此对图像进行resize(在resize的图像上,所有的人脸大小在同一尺度),然后只需要对该sacle的一个尺度的网络便可检测出所有人脸。《Face Detection through Scale-Friendly Deep Convolutional Networks》Scale-friendly在提供propose方法的时候从图像中提取各种尺度的anchor,力求覆盖到各种尺度大小。

这里写图片描述

这里写图片描述

到此很多读者可能会疑惑,为啥没有提到RCNN、fastRCNN、fasterRCNN、sppnet、YOLO、SSD、DenseBox等相关物体检测的文章,也有很多工作是将这些方法应用到人脸检测的,考虑到其通用性,这里没有一一介绍,后续笔者会就物体检测系列的文章进行详细描述。 
总结来说,全卷积网络代替滑动窗口加步长的方式,利用到时卷积层共享计算的特性;Cascade结构其实和目标检测的proposal是同一思想,都是想通过一个快速的方法获取人脸候选位置,排除掉大量的负样本;图像金字塔、特征级别金字塔、不同尺度的anchor、不同尺度的模型大小都是为了解决人脸sacle的问题,例如同一个检测器很难同时检测出来20*20大小和200*200大小,加入了人脸框回归可一定程度的提高尺度的鲁棒性。 
最后说一下,人脸检测速度的问题。提到人脸检测速度,不说图像大小和最小检测尺度都是耍流氓的行为。最小检测尺度翻一倍,速度可能要提升不止一倍。上述所有的方法中,结合速度和检测率,表现最优秀的是MTCNN的方法(但凡涉及到VGG16、Resnet34这种大的网络结构的检测算法很难实用起来),后续笔者会详尽介绍MTCNN的训练测试流程。


本篇博文转载于: 
1. 基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN 
2. 深度学习人脸检测综述

参考: 
目标检测经典文献:

人脸检测经典深度学习文献:

 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
背景: 网络入侵是指未经授权的个人或组织通过网络渗透目标系统,进行非法访问、破坏、窃取敏感信息等活动。随着互联网的普及和信息化水平的提高,网络入侵行为日益猖獗,给个人、企业和政府等各个领域的信息安全带来了严重威胁。 传统的入侵检测系统主要基于特征匹配和规则引擎,通过事先定义好的规则或者特征来判断网络流量中是否存在入侵行为。然而,这些方法往往对于复杂的入侵行为无法准确检测,并且规则的维护和更新也是一项繁琐的工作。随着入侵技术的不断演进和变化,传统方法越来越难以满足实际需求。 深度学习作为一种强大的机器学习技术,在图像识别、自然语言处理等领域取得了重大突破。近年来,研究人员开始探索将深度学习应用于入侵检测领域,以提高检测的准确性和适应性。 深度学习通过构建多层的神经网络模型,并通过大量的数据进行训练,能够自动学习到复杂的特征和模式。与传统方法相比,基于深度学习的入侵检测方法具有以下优势: 1. 自动学习特征:传统方法需要人工定义特征,而深度学习可以通过训练模型自动学习到最有用的特征,减少了人工干预的需求。 2. 强大的泛化能力:深度学习模型可以从大量数据中学习到更加复杂和抽象的特征,从而适应不断变化的入侵行为。 3. 实时性:深度学习模型可以通过并行计算和分布式处理来应对大规模数据,实现实时监测和响应。 4. 捕获隐藏攻击:深度学习模型可以学习到隐藏在网络流量数据中的微弱信号和模式,提高对隐藏攻击的检测能力。 然而,基于深度学习的入侵检测方法也面临一些挑战。首先,深度学习模型需要大量标记样本进行训练,而获取和标记大规模数据是一项耗时耗力的工作。其次,深度学习模型的复杂性导致了训练和推理的计算资源要求较高。此外,深度学习模型的黑盒性使得其分类决策难以解释,限制了其在安全领域的应用。 为了进一步提升基于深度学习的入侵检测系统的性能,研究人员需要解决这些挑战。未来的研究方向包括改进模型结构、解决数据不平衡和恶意对抗样本等问题,提高模型的解释性和可靠性。 综上所述,基于深度学习的入侵检测研究具有重要意义。通过利用深度学习模型自动学习特征和模式的能力,可以提高入侵检测的准确性和适应性。然而,深度学习模型的复杂性和训练过程中的挑战也需要我们进一步研究和改进。未来的工作将集中在改进模型结构、解决数据不平衡和恶意对抗样本等问题,以推动深度学习在入侵检测领域的应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值