一句话总结
超越YOLO系列(v5、v6、v7、v8)!Gold-YOLO:一种全新的实时目标检测器,提出一种GD新机制,通过卷积和自注意力操作来实现,增强了多尺度特征融合能力,并首次在 YOLO 系列中实现了 MAE 式的预训练,在所有模型尺度上实现了延迟和准确性之间的理想平衡,代码刚刚开源!
在CVer微信公众号后台回复:Gold,可以下载本论文pdf和代码
Gold-YOLO
Gold-YOLO: Efficient Object Detector via Gather-and-Distribute Mechanism
单位:华为诺亚方舟实验室
代码1(MindSpore版本):https://gitee.com/mindspore/models/tree/master/research/cv/Gold_YOLO
代码2(PyTorch版本):https://github.com/huaweinoah/Efficient-Computing/Detection/Gold-YOLO
论文下载链接(PDF已上传至CVer星球,可一键下载):https://arxiv.org/abs/2309.11331
在CVer微信公众号后台回复:Gold,可以下载本论文pdf和代码
在过去的几年中,YOLO 系列模型已成为实时目标检测领域的领先方法。许多研究通过修改架构、增加数据和设计新的损失,将基线提升到更高的水平。然而,我们发现以前的模型仍然存在信息融合问题,尽管特征金字塔网络(FPN)和路径聚合网络(PANet)已经缓解了这个问题。
因此,本研究提供了一种先进的Gatherand-Distribute机制(GD)机制,通过卷积和自注意力操作来实现。
这种新设计的模型被命名为Gold-YOLO,它增强了多尺度特征融合能力,并在所有模型尺度上实现了延迟和准确性之间的理想平衡。
并首次在 YOLO 系列中实现了 MAE 式的预训练,使 YOLO 系列模型可以从无监督预训练中受益。
实验结果
Gold-YOLO-N 在 COCO val2017 数据集上获得了出色的 39.9% AP,在 T4 GPU 上获得了 1030 FPS,比之前具有类似 FPS 的 SOTA 模型 YOLOv6-3.0-N 提高了 2.4%。
在CVer微信公众号后台回复:Gold,可以下载本论文pdf和代码