DETA:重新定义Transformer检测器的高效与精准
DETA Detection Transformers with Assignment 项目地址: https://gitcode.com/gh_mirrors/de/DETA
项目介绍
DETA(Detection Transformers with Assignment)** 是由 Jeffrey Ouyang-Zhang、Jang Hyun Cho、Xingyi Zhou 和 Philipp Krähenbühl 共同开发的开源项目。该项目基于论文 NMS Strikes Back,旨在通过重新引入IoU分配和NMS(非极大值抑制)来优化基于Transformer的检测器。DETA不仅在训练和测试速度上与Deformable-DETR相当,而且在COCO数据集上仅需12个epoch就能达到50.2 mAP的高精度,显著提升了模型的收敛速度。
项目技术分析
DETA的核心创新在于其独特的IoU分配机制和NMS的应用。传统的DETR模型采用一对一的二分匹配,而DETA则引入了多对一的IoU分配,从而在保持高精度的同时,大幅提升了训练效率。具体来说,DETA在COCO数据集上的表现如下:
- DETA(12 epochs):50.1 mAP,总训练时间16.3 GPU小时,批量推理速度12.7 FPS。
- DETA(24 epochs):51.1 mAP,总训练时间32.5 GPU小时,批量推理速度12.7 FPS。
- DETA(Swin-L,24 epochs):62.9 mAP,总训练时间100 GPU小时,批量推理速度4.2 FPS。
这些数据表明,DETA在保持高推理速度的同时,显著提升了检测精度,尤其是在使用Swin-L作为骨干网络时,性能达到了62.9 mAP。
项目及技术应用场景
DETA适用于各种需要高效且精准目标检测的场景,特别是在以下领域:
- 自动驾驶:快速且准确地识别道路上的各种物体,如车辆、行人、交通标志等。
- 智能监控:实时监控并识别监控画面中的异常行为或目标。
- 工业检测:在生产线上快速检测产品缺陷或异常。
- 医学影像分析:快速且准确地识别医学影像中的病变区域。
项目特点
- 高效训练:DETA在训练速度上与Deformable-DETR相当,但在收敛速度上显著优于后者,仅需12个epoch即可达到50.2 mAP。
- 高精度检测:通过引入IoU分配和NMS,DETA在COCO数据集上表现出色,尤其是在使用Swin-L作为骨干网络时,精度达到了62.9 mAP。
- 灵活配置:DETA支持多种配置,包括不同的骨干网络(如ResNet-50和Swin-L),用户可以根据需求选择最适合的配置。
- 易于使用:项目提供了详细的安装和使用指南,用户可以轻松地在本地或集群环境中进行训练和评估。
结语
DETA通过重新引入IoU分配和NMS,成功地优化了基于Transformer的检测器,不仅在训练速度和精度上取得了显著提升,还为各种实际应用场景提供了强大的技术支持。如果你正在寻找一个高效且精准的目标检测解决方案,DETA无疑是一个值得尝试的选择。
DETA Detection Transformers with Assignment 项目地址: https://gitcode.com/gh_mirrors/de/DETA