多目标检测:基于YoloV4优化的多目标检测(附论文下载)

关注并星标

从此不迷路

计算机视觉研究院

47c124420802a2b24cc9bda1ffe562e8.gif

db96b22879351febb90579f0a81c6eb0.gif

22c9cb3c76c2bd09fb80f6c59310910b.png

公众号ID|ComputerVisionGzq

学习群|扫码在主页获取加入方式

00496bdf680bf664106b14f76f064a64.png

计算机视觉研究院专栏

作者:Edison_G

为了解决目标检测任务中小目标检测精度低、误检、漏检率高等问题,有研究者提出了一种新的目标检测方法。

一、前言

为了解决目标检测任务中小目标检测精度低、误检、漏检率高等问题,有研究者提出了一种基于YOLOv4卷积神经网络的多目标检测方法。 多目标检测作为目标检测领域的一个重要研究方向,一直受到研究人员的广泛关注。目前,在智能交通、智能辅助驾驶和视频监控等领域已经产生了深入的研究。

58d5d75142604b99b7534b80951d729e.png

传统的行人检测方法,如HOG(定向梯度直方图)、DPM(可变形部件模型)、ACF(聚合通道特征),都采用人工设计或特征聚合来获取行人特征。随着2012年AlexNet在图像分类任务上的重大突破,利用卷积神经网络自动学习特征提取过程代替传统的人工设计是当前的主要研究方向。基于卷积神经网络的目标检测方法主要分为两类,一类是两阶段方法,一类是单阶段方法。

e6c6eb07ad5294231fea022009a746c9.png

第一种方法的主要思想是在生成候选目标区域的基础上,利用级联方法进一步判断边界框的类别和位置。另一种是单阶段方法,以YOLO和SSD为例。思路是使用卷积神经网络直接返回位置和类别。卷积神经网络的引入提高了行人检测算法的性能,但遮挡问题仍然是行人检测的一大难点。有文献【Deep learning strong parts for pedestrian detection】使用联合学习方法对不同的行人遮挡模式进行建模,但其检测框架复杂且无法穷尽所有情况。【Repulsion Loss: Detecting Pedestrians in a Crowd】设计了一种新的损失函数,使预测帧与目标真实帧保持接近,同时远离其他真实帧。这种方法处理遮挡更灵活,更容易实现。【Occlusion-aware R-CNN: Detecting Pedestrians in a Crowd】结合了上述两种思想,提出了一个组件遮挡感知单元和一个聚合损失函数来处理行人遮挡问题。【Bi-box Regression for Pedestrian Detection and Occlusion Estimation】通过引入新的监督信息(行人可见区域的边界框)来处理遮挡,思路是用两个分支网络分别返回行人的全身框架和可见区域的边界框,最后合并两个分支的结果,提高检测性能。

a94b34a9b8727aaca039a50263c541f8.png

目前目标检测任务主要针对不同的应用场景选择合适的检测算法:单阶段算法检测速度最快,但准确率较低;两阶段和多阶段检测算法可以获得更高的检测精度,但以牺牲检测速度为代价。

二、概要

今天分享的框架,新的方法基于YOLOv4。 高层特征的语义信息首先通过FPN采样传播到低层网络,然后与底层特征的高分辨率信息融合,以提高小目标检测对象的检测效果。 通过对特征金字塔进行下采样来增强从底部到顶部的信息传递路径,最后融合不同层的特征图以实现相关预测。 实验证明,新提出的方法具有良好的效果。

三、新框架

fa37638d506f19e7be1eb2a4c67ce763.png

新的模型架构如上图所示。它由三部分组成:用于特征提取的前端网络、特征融合模块和用于分类和回归操作的检测模块。在输入处将输入图像的尺寸resize为416×416,输入到网络中进行训练和检测。 基本卷积块是一个卷积层,它结合了批量归一化 (BN) 并使用Mish和leakyRelu激活函数。

模型前端使用CSPDarknet模块组成的主干网络,由卷积层和残差模块叠加,有效防止在网络层数加深的基础上梯度消失或爆炸,获得更丰富的语义信息特征图,并且在主干网络中,特征图维度的减少是通过卷积层的5倍下采样实现的,其步长为2,内核大小为3;对网络neck处进行2次上采样,浅层采用PAN+SPP模型结构实现浅层特征与高层语义特征的融合以及多尺度感受野的融合,充分利用了浅层网络,改善小目标特征丢失的问题;检测头采用回归+分类的思想,将输入图像分别划分为76×76、38×38、19×19三种不同尺寸的网格图像,分别实现小目标、中目标和大目标的检测目标。

SPP模块:

该模型在主干网络后面添加了SPP模块,如下图所示。输入特征图经过一个卷积层后,经过5×5、9×9、13×13三个核进行最大池化, 然后concat得到的特征图进行通道拼接,输出通道数变成原来通道数的4倍,特征图大小保持不变。

93a3c13a3a2e3ac0b5c0dc8474ad2882.png

输出特征图大小为:

09451f57a344db8053e08c3e386a5c16.png

其中n是输入特征图的大小,p是padding,s是步长,这意味着向下取整。SPP模块通过使用不同大小核的Maxpool层获取特征图局部区域的感受野信息和接近全局的感受野,并进行特征融合。这种融合不同尺度感受野的操作可以有效丰富特征图的表达能力,增强骨干网络输出特征的接受范围,分离重要的上下文信息。

四、实验及可视化

703041e50a5f1e3a1e2ff18588766176.png

67b84832686e1d9cfce48b2b51ccfb26.png

© THE END 

转载请联系本公众号获得授权

294ce08220edfdd326a7e8d126c0a6fd.gif

计算机视觉研究院学习群等你加入!

计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

35f7f0fea652b469dd6a830885f8ad64.png

扫码关注

计算机视觉研究院

公众号ID|ComputerVisionGzq

学习群|扫码在主页获取加入方式

 往期推荐 

🔗

  • 2
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

计算机视觉研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值