ConQueR 开源项目安装与使用指南
EFG 项目地址: https://gitcode.com/gh_mirrors/con/ConQueR
项目介绍
ConQueR 是一个高效、灵活且通用的深度学习框架,旨在保持最小化的核心设计,同时支持广泛的计算机视觉研究课题。该框架支持多种任务,包括2D和3D物体检测,并已发布多个会议亮点论文的代码实现,如CVPR2023上的ConQueR(Query Contrast Voxel-DETR)以及ICCV2023的TrajectoryFormer。它兼容PyTorch环境,并提供了对COCO、Waymo和nuScenes等主流数据集的支持。
项目快速启动
环境准备
首先,确保你的系统满足以下要求:
- GCC 5或更高版本(支持C++11)
- Python >= 3.6
- CUDA >= 10.1
- PyTorch >= 1.6
- spconv与CUDA版本对应的正确安装
- 针对特定数据集的依赖库,如
waymo-open-dataset-tf-2-1-0
或waymo-open-dataset-tf-2-4-0
安装ConQueR框架前,请设置好环境变量并克隆仓库:
git clone https://github.com/poodarchu/ConQueR.git
cd ConQueR
pip install -v -e .
echo "export EFG_CACHE_DIR=/path/to/your/cache/dir" >> ~/.bashrc
source ~/.bashrc
数据准备及训练示例
以Waymo Open Dataset为例进行数据准备:
- 使用Google Storage工具下载数据。
- 将TFRecord转换为pkl格式。
- 创建数据摘要和地面实况数据库。
最后,开始训练一个模型:
cd playground/path/to/experiment
efg_run --num-gpus 1 task train
应用案例和最佳实践
ConQueR 的一个典型应用是3D物体检测在自动驾驶场景中的部署。最佳实践建议从预定义的配置文件开始,通过调整超参数来优化模型在特定数据集上的性能。例如,对于Waymo数据集,可以关注帧数、采样策略等关键配置,以优化mAPH指标。
典型生态项目
虽然直接的“典型生态项目”信息未在提供的链接中详细列出,但是可以推测,开发者和社区可能围绕ConQueR框架构建了各种定制化的模型和实验。这些可能包括但不限于不同领域的物体检测、跟踪和场景理解的应用案例。用户和研究人员可以通过贡献自己的模型实现、参与框架的改进或者创建基于ConQueR的新工具来丰富其生态系统。为了加入这个生态,开发者可以直接参考ConQueR的GitHub页面,查看最新的提交、分支和贡献者指南,或通过邮件联系项目维护者(poodarchu@gmail.com)讨论贡献方式。
请注意,以上内容是基于提供的GitHub链接中提取的信息编写的,实际操作时应参照最新版本的项目文档和说明,因为技术细节可能会随时间更新。