目标检测算法终结篇:YOLOv7(非正式版)正式开源

关注并星标

从此不迷路

计算机视觉研究院

e26c617cc7a1872f78d782711c9f8783.gif

6b00ffd439948b36b303e289072ba915.png

公众号IDComputerVisionGzq

学习群扫码在主页获取加入方式

计算机视觉研究院专栏

作者:Edison_G

请注意,这里的7,不是下一代YOLO,而是一个幸运数字,姑且可以看作是一个代号。它的目的是让YOLO全面开花,不仅仅只是做目标检测。也不是简单的加一个semantic head做分割,而是做一个体系的目标检测积木模块,即插即用,使之能够更简单的做复杂的上层任务,比如多个分类head,实例分割,甚至是加上姿态检测等等。

转自《知乎——金天》

链接:https://zhuanlan.zhihu.com/p/464007111

14a4af28673e69444c63370cf811a622.png

a76f25351fcc0799a98bbc4da84865af.png

介绍

e4555ca95e3a1251d3d64bef716f2096.png

27cc26c6fe3219e9cdda468bf54c66cb.png

目前支持的东西就这么一些,现列举一些大家可能感兴趣的:

  • 支持GridMask,Mosiac的数据增强,而且可以可视化;

  • 支持YOLOX(很强),而且部署方式比原版更方便,可训练,官方不是唯一可选;

  • 支持YOLOv7+实例分割,是SingleStage的方式,目前用的是OrienMaskHead,未来可能增加更多方式;

  • 支持DETR,AnchorDETR等transformer,这是独一无二的,在一个框架里面同时被支持;

  • YOLOv4 contained with CSP-Darknet53;

  • YOLOv7 arch with resnets backbone;

  • YOLOv7 arch with resnet-vd backbone (likely as PP-YOLO), deformable conv, Mish etc;

  • GridMask augmentation from PP-YOLO included;

  • YOLOv7 arch Swin-Transformer support (higher accuracy but lower speed);

  • YOLOv7 arch Efficientnet + BiFPN;

  • YOLOv5 style positive samples selection, new coordinates coding style;

  • RandomColorDistortion, RandomExpand, RandomCrop, RandomFlip;

  • CIoU loss (DIoU, GIoU) and label smoothing (from YOLOv5 & YOLOv4);

  • YOLOF also included;

  • YOLOv7 Res2net + FPN supported;

  • Pyramid Vision Transformer v2 (PVTv2) supported;

  • WBF (Weighted Box Fusion), this works better than NMS, link;

  • YOLOX like head design and anchor design, also training support;

  • YOLOX s,m,l backbone and PAFPN added, we have a new combination of YOLOX backbone and pafpn;

  • YOLOv7 with Res2Net-v1d backbone, we found res2net-v1d have a better accuracy then darknet53;

  • Added PPYOLOv2 PAN neck with SPP and dropblock;

  • YOLOX arch added, now you can train YOLOX model (anchor free yolo) as well;

  • DETR: transformer based detection model and onnx export supported, as well as TensorRT acceleration;

  • AnchorDETR: Faster converge version of detr, now supported!

最后强调一下,这个版本里面的transformer是支持转到ONNX的,并且这个ONNX是可以被TensorRT推理的。据我所知,这在全网没有任何一个开源的仓库做得到。

2d6993aa84d85473ea56f70347f0f068.png

a48bc29ff000234e7405d503778380ed.png

7fc6068cc8e2e2be7df6c8e516c337dd.png

c99574f60b1770f408761ae4980045a9.png

社区支持

为什么要开源这个框架,原因主要是两个:

  • 我希望利用社区的力量把它做的更完善,增加更多的功能,这一年我们越来越相信社区的力量,众人拾材火焰高,不同的人研究优化不同的方向,就可以把这个框架被更多人用起来,用它训练的模型和部署起来的模型就可以跑在更多的地方,这才是价值所在;

  • 我没有卡继续维护这些模型,希望有卡的朋友们一起来训模型,把社区做起来。

一个好的框架离不开发起人的积极参与和技术支持,我会一如既往的回答大家的问题,希望能给开源尽一些绵薄之力。

非常欢迎有时间,有计算资源,懂行的朋友来贡献代码或者模型,尤其是做目标检测方向的朋友们,这确实是发自内心一个非常良心的建议,把这些好的算法都汇聚到一起来吧。让社区的力量把它发展的更加壮大。

Github:https://github.com/jinfagang/yolov7

GridMask

27ea968370e424c3828e12582b08768c.png

Mosaic

6ec59ba74ea405bbdf4be7d787aaafff.png

432c1c94f6fd38326302a9b54e127784.png

© THE END 

转载请联系本公众号获得授权

402329e5c32d4263cf1fd7f6dcd12bc2.gif

计算机视觉研究院学习群等你加入!

计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

e0a568e34524468f5a506744295141fe.png

扫码关注

计算机视觉研究院

公众号ID|ComputerVisionGzq

学习群|扫码在主页获取加入方式

 往期推荐 

🔗

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值