YOLOX:高性能目标检测的最新实践 | 报告详解

旷视科技研究院的刘松涛介绍了YOLOX,它是YOLO系列的最新进展,旨在解决手工设定样本正负导致的模型泛化能力问题。YOLOX采用Decoupled Head、Anchor Free、SimOTA等技术,实现在COCO数据集上的优秀性能,同时提供了训练和部署建议。
摘要由CSDN通过智能技术生成


近年来,目标检测的工程应用研究中,YOLO系列以快速响应、高精度、结构简单以及容易部署的特点备受工程研究人员的青睐。同时,YOLO系列存在需要手工设定样本正负导致模型泛化能力较差的问题。为了解决此类问题,旷视科技研究院BaseDetection组结合学术界先进成果和工程实践的要求,提出了YOLOX。

本期,来自旷视科技研究院BaseDetection组的刘松涛,对YOLO近两年的关键技术进行了梳理,同时介绍了YOLOX在这些方向上的关键改进,以及一些实际训练和调优的经验。

视频回放链接:https://event.baai.ac.cn/activities/158

主讲人简介

刘松涛,旷视研究院BaseDetection组研究员,本科和博士均毕业于北京航空航天大学,主要研究方向为计算机视觉中的目标检测、行人检测问题。他在CVPR、ECCV、ICCV等国际计算机视觉顶级会议中发表了近10篇文章,并获得了CVPR 自动驾驶比赛WAD 2021中Streaming Perception Challenge 双赛道冠军。代表作品包括RFBNet,AdaptiveNMS, ASFF和YOLOX等。





整理:马瑞军

校对:李梦佳

内容目录

一、 YOLO简介

二、  YOLO系列关键技术发展

        2.1 Anchor Free发展

       2.2 样本匹配(Label Assignment)发展

三、 YOLOX介绍

       3.1  YOLOX核心部件介绍

       3.2 YOLOX实验结果

       3.3  YOLOX使用建议

       3.4 YOLOX开源与部署

01

YOLO 简介

 

YOLO系列发展至今主要包含了v1、v2、v3、v4和v5以及针对每个版本的改进系列。YOLOv1源于Joseph Redmon,主要贡献在于:开发出实时高性能目标检测的one-stage检测框架,只需要将图像一次性输入到网络中即可预测出图像中目标的位置,具有速度快;检测精度

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值