深度学习目标检测在实际场景中的应用(附源代码)

关注并星标

从此不迷路

计算机视觉研究院

4386650e0248dd6eb3381aad22ded7ed.gif

4f172aeb60efff94a8ab4e6d005de21b.png

公众号IDComputerVisionGzq

学习群扫码在主页获取加入方式

计算机视觉研究院专栏

作者:Edison_G

目标检测是现在最热门的研究课题,目前最流行的还是Yolo系列框架,最近我们计算机视觉研究院也分享了很对目标检测干活及实践,都是Yolo-Base框架,今天我们分享一个经过修改后的Yolov5,实时检测的效果!

开源代码:https://github.com/ultralytics/yolov5/releases

01

2ffba62de3c84258092c5de58344f7c4.png

前言

70ddf3928ac75adbba1429dbf2498ad5.png

目标检测是现在最热门的研究课题,现在的框架越来越多,但是技术的新颖性到了瓶颈,目前开始流行Transformer机制,而且在目标检测领域也能获得较大的提升,也是目前研究的一个热点。

d8e9ec84faabbfbe9b668b56971e12ac.png

即将举行的亚运会,将会投入更多的先进科技,比如3D成像、姿态估计、目标检测、跟踪及识别!让去全世界看到不一样的中国,不一样的科技,不一样的亚运会。今天我们就说说目标检测会在亚运会中的体现!

be537b47809c4cce87be3907dd8ad8fc.png

c2bbf5555eb3b10e0d9748fc5bacd052.png

目前最流行的还是Yolo系列框架,最近我们“计算机视觉研究院”也分享了很对目标检测干活及实践,都是Yolo-Base框架。

02

c76d10abc2f95a58d08e3c4e740e2477.png

新框架改进

461c13be56c8ac1152b4014999b2e2cf.png

今天我们分享一个经过简单优化过的Yolov5,暂时命名为:Pad-YoloV5,在IPad上可以实时检测!基于YoloV5框架,熟悉的同学应该都不用多加解释。

YoloV4在YoloV3的基础上增加了近两年的研究成果,如下:

  1. 输入端采用mosaic数据增强

  2. Backbone上采用了CSPDarknet53、Mish激活函数、Dropblock等方式。(cspnet减少了计算量的同时可以保证准确率)

  3. Mish函数为:

    77aefd76da4a0764a8add2cec7f213e4.png

  4. Neck中采用了SPP、FPN+PAN的结构,

  5. 输出端则采用CIOU_Loss、DIOU_nms操作

YoloV5主要的改变,如下:

  1. 输入端:Mosaic数据增强、自适应锚框计算

  2. Backbone:Focus结构,CSP结构

  3. Neck:FPN+PAN结构

  4. Prediction:GIOU_Loss

这次主要优化,是YoloV5在数据增强的时候,用随机缩放、随机裁剪、随机排布的方式进行拼接,这个对于小目标的检测效果还是很友好的。通过实验发现,这个随机拼接和有规律的拼接,最终的结果还是有一点差别的。

96d3b287f30c4d5ebf5c72efe24ff366.png

首先我通过修改数据增强的策略,开始对整体数据集进行统计(也就是数据预处理分析),我大致分成三个范围。将最大的与最小的进行随机拼接,最终结果确实比整体随机的效果好!

44dac0efa4c365e2e40fd2deece42cd5.png

其次,稍微修改了下自适应图片缩放策略,Yolov5代码中datasets.py的letterbox函数中进行了修改,对原始图像自适应的添加最少的黑边。我是在自适应缩放后的图片,我在右下角位置填边,其实大多数数据没有什么变化,只是随便改改,因为在线都是在Yolo的基础上增加最近几年新出的策略,确实在最后的检查有一定效果的增加。

最后的修改,就是辛苦的把Transformer机制加进了YoloV5的基础框架中,训练确实加快了,但是对于用笔记本训练的成果物,还是不够明显。这也是最近第一次分享实践过程的一些小心思,具体的细节我们“计算机视觉研究院”后期会通过一篇干活详细和大家分享!

© THE END 

转载请联系本公众号获得授权

cd4fd621c957915e5b46f49db8fd27ed.gif

计算机视觉研究院学习群等你加入!

计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

c68729bd7d61594e6aaa882ad1f8e338.png

扫码关注

计算机视觉研究院

公众号ID|ComputerVisionGzq

学习群|扫码在主页获取加入方式

 往期推荐 

🔗

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

计算机视觉研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值