一. 项目简介
-
基于
TensorRT-v8
,部署YOLOv8
+ByteTrack
的目标跟踪; -
支持嵌入式设备
Jetson
系列上部署,也可以在Linux x86_64
的服务器上部署;
博主所做的主要工作:
- 参考 tensorrtx 项目,模型
.pth
->.engine
,提取出推理部分代码,封装为C++的类,便于其他项目调用; - 预处理更换成了自己写的 CUDA编程预处理;
- 后处理去掉了CUDA编程,因为测试其相比CPU后处理提速并不明显;
- 后处理的
NMS
大幅减小conf_thres
超参数,源于ByteTrack
跟踪的原理,这一点非常重要; YOLOv8
推理编译为一个动态链接库,以解耦项目;- 参考官方 ByteTrack TensorRT部署,修改其与YOLO检测器的接口;
ByteTrack
也编译为一个动态链接库,进一步解耦项目;- 增加类别过滤功能,可以在
main.cpp
第 8 行设置自己想要跟踪的类别。
二. 项目效果
三. 环境配置
- 基本要求:
TensorRT 8.0+
OpenCV 3.4.0+
- 本人在
Jetson Nano
上的运行环境如下:
- 烧录的系统镜像为
Jetpack 4.6.1
,该jetpack
原装环境如下:
CUDA | cuDNN | TensorRT | OpenCV |
---|---|---|---|
10.2 | 8.2 | 8.2.1 | 4.1.1 |
关于如何在 Jetson nano
上烧录镜像,网上资料还是很多的,这里就不赘述了,注意下载 Jetpack
镜像时选择 4.6.1 版本,该版本对应的 TensorRT v8 版本
- 安装
Eigen
库
apt install libeigen3-dev
- 如果是服务器上,保证基本环境版本满足,再安装
Eigen
库即可
提示:无论何种设备,记得确认 CMakeLists.txt
文件中相关库的路径。
四. 代码地址
- TensorRT-YOLOv8-ByteTrack
- 博主自己也编码和整理了很大一部分,编码不易,若有帮助,望不吝 Star
五. 模型转换
目的:得到TensorRT
的序列化文件,后缀 .engine
-
首先获取
wts
格式的模型文件,链接:yolov8s.wts,提取码:gsqm -
然后按以下步骤执行:
cd {TensorRT-YOLOv8-ByteTrack}/tensorrtx-yolov8/
mkdir build
cd build
cp {path/to/yolov8s.wts} .
cmake ..
make
./yolov8 -s yolov8s.wts yolov8s.engine s
cd ../../
mkdir yolo/engine
cp tensorrtx-yolov8/build/yolov8s.engine yolo/engine
六. 运行项目
- 开始编译并运行目标跟踪的代码
- 按如下步骤运行
mkdir build
cd build
cmake ..
make
./main ../videos/demo.mp4 # 传入自己视频的路径
之后会在 build
目录下的到result.mp4
,为跟踪效果的视频文件
如果想要跟踪的视频实时播放,可解开main.cpp
第 94 行的注释。
七. 项目参考
主要参考了下面的项目:
感谢阅毕,若有帮助,欢迎点赞收藏
============================= END =============================