【趣味随笔】YOLO的“进化史”极简版(YOLO v1-->YOLOP)

📢:如果你也对机器人、人工智能感兴趣,看来我们志同道合✨
📢:不妨浏览一下我的博客主页【https://blog.csdn.net/weixin_51244852
📢:文章若有幸对你有帮助,可点赞 👍 收藏 ⭐不迷路🙉
📢:内容若有错误,敬请留言 📝指正!原创文,转载请注明出处


YOLO v1

You Only Look Once: Unified, Real-Time Object Detection
作者:Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi
单位:华盛顿大学;Allen Institute for AI;FAIR
论文:https://arxiv.org/abs/1506.02640
主页:https://pjreddie.com/darknet/yolo/
时间:2015年6月8日
在这里插入图片描述

YOLO v2

YOLO9000: Better, Faster, Stronger
作者:Joseph Redmon, Ali Farhadi
单位:华盛顿大学;Allen Institute for AI
论文:https://arxiv.org/abs/1612.08242
主页:https://pjreddie.com/darknet/yolo/
时间:2016年12月25日
在 YOLO 基础上,保持原有速度的同时提升精度得到YOLOv2,让预测变得更准确(Better),更快速(Faster)。

YOLO v3

YOLOv3: An Incremental Improvement
作者:Joseph Redmon, Ali Farhadi
单位:华盛顿大学
论文:https://arxiv.org/abs/1804.02767
主页:https://pjreddie.com/darknet/yolo/
Star | 18.3K
时间:2018年4月8日
在320×320 YOLOv3运行22.2ms,28.2 mAP,像SSD一样准确,但速度快三倍。在Titan X上,它在51 ms内实现了57.9的AP50,与RetinaNet在198 ms内的57.5 AP50相当,性能相似但速度快3.8倍。

YOLO v4

YOLOv4: Optimal Speed and Accuracy of Object Detection
作者:Alexey Bochkovskiy;Chien-Yao Wang;Hong-Yuan Mark Liao
单位:(中国台湾)中央研究院
论文:https://arxiv.org/pdf/2004.10934v1.pdf
代码:https://github.com/AlexeyAB/darknet
Star | 11.9K
时间:2020年4月24日

YOLO v5

2020年6月25日,Ultralytics发布了YOLOV5 的第一个正式版本,号称其性能与YOLO V4不相伯仲,同样也是现今最先进的目标检测技术,并在推理速度上是目前最强。
论文:无
代码:https://github.com/ultralytics/yolov5
Star | 3.5K

YOLO v6

YOLOv6是美团提出的一种实时目标检测方法,其速度比YOLOv5快20%,这主要归功于其采用的relu激活函数。在COCO数据集上,YOLOv6-N达到了37.5%的AP,并且通过NVIDIA Tesla T4 GPU测试的吞吐量为1187 FPS。而YOLOv6-S在保持较高速度的同时,打击了45.0%的AP,超过了同等规模的其他主流检测器(包括YOLOv5-S、YOLOv8-S、YOLOX-S和PPYOLOE-S)。值得注意的是,YOLOv6-M/L在相似的推理速度下也比其他检测器实现了更好的精度性能(分别为50.0%/52.8%)

YOLO v7

YOLO v7,一个出场即喊了一句“在座的各位都是腊鸡”的detector,其在COCO数据集上的表现如下图,不论是mAP还是latency,都比同级别的detector好. 正如文章标题所描述的,YOLO v7实现高精度检测的方式更多的是依靠训练策略的优化. BTW,YOLO v7的整体架构和YOLO v5仍然非常相似,皆为backbone+FPN+PAN+三个不同尺度的head,但其中内嵌的模块有了较大改变.
论文:https://arxiv.org/pdf/2207.02696.pdf。
《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors》
代码:https://github.com/WongKinYiu/yolov7

在这里插入图片描述

YOLO v8

YOLOv8 是 ultralytics 公司在 2023 年 1月 10 号开源的 YOLOv5 的下一个重大更新版本,目前支持图像分类、物体检测和实例分割任务,在还没有开源时就收到了用户的广泛关注。

YOLOv8 是最新最先进的 YOLO 模型,可用于对象检测、图像分类和实例分割任务。YOLOv8 由 Ultralytics 开发,该公司还创建了具有影响力和行业定义的 YOLOv5 模型。与 YOLOv5 相比,YOLOv8 包含大量架构和开发人员体验更改和改进。

代码:https://github.com/ultralytics/ultralytics

YOLOX

YOLOX: Exceeding YOLO Series in 2021
YOLOX采用了anchor-free的设计思路,使得模型对于目标物体的形状、大小和比例等参数具有更好的泛化能力。同时,YOLOX还引入了decoupled detection head,这种设计可以更好地优化目标检测任务中的目标定位和分类两个子任务。

值得一提的是,YOLOX所采用的主干网络CSPDarknet创新性地加入了Fcous结构,这种结构可以有效地缩小图片宽高信息,降低参数量,从而提高网络的计算速度。此外,YOLOX还提出了SimOTA这一新的训练策略,该策略通过模拟标签的分配来优化目标检测的性能。

作者单位:旷视科技
代码:https://github.com/Megvii-BaseDetection/YOLOX
论文:https://arxiv.org/abs/2107.08430

在这里插入图片描述

YOLOP

华中大提出全景驾驶感知网络YOLOP
可以同时进行 traffic object detection(交通目标检测)、 drivable area segmentation(可驾驶区域分割)和 lane detection(车道检测)
作者 | Dong Wu, Manwen Liao, Weitian Zhang, Xinggang Wang
单位 | 华中科技大学
论文 | https://arxiv.org/abs/2108.11250
代码 | github.com/hustvl/YOLOP

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

嵌小超

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值