Jetson 系列——基于yolov5对工地头盔的检测,部属于jetson xavier nx,使用tensorrt、c++和int8加速,可用于边缘计算

项目简介:

代码地址:
github地址:https://github.com/RichardoMrMu/yolov5-helmet-detection
gitee地址:https://gitee.com/mumuU1156/yolov5-helmet-detection
欢迎start或提出你的issue、改进建议。
本项目使用yolov5实现安全帽的检测,使用c++实现,并用tensorrt加速,尝试了不同大小的模型,同时使用int8加速,在Jetson Xavier nx上整个项目的推理时间在30ms左右,即33FPS的速度。
You can see video play in BILIBILI, or YOUTUBE.
在这里插入图片描述
如果你想从头开始尝试训练模型,你可以查看 yolov5-helmet-detection-python这个仓库,并阅读他的readme,帮助你是用python去训练一个自己的安全帽检测模型,并使用c++去部属到边缘设备上。

Speed

Backbonebefore TensorRTTensortRT(detection)FPS(detection)
Yolov5s-640-float16100ms60-70ms14 ~ 18
Yolov5m-640-float16120ms70-75ms13 ~ 14
Yolov5s-640-int830-40ms25 ~ 33
Yolov5m-640-int850-60ms16 ~ 20

Achieve and Experiment

  • Int8.
  • yolov5-s
  • yolov5-m

Comming soon

  • Faster and use less memory.

DataSet


数据集中包含了5000张已经标注好的数据。该项目采用目标检测的标注方式,在本文档中提供了VOC数据集格式。点击此处前往下载数据集

下载后的数据集文件夹需要更改一下命名:

dataset/                          dataset/
  ├── annotations/      -->         ├── Annotations/
  ├── images/                       ├── JPEGImages/

数据集分类情况: head , helmet.

更多数据格式信息请参考数据标注说明文档

项目使用

这个项目中,需要检测的yolov5,我选择yolov5s模型,并通过yolov5s.pt->yolov5s.wts->yolov5s.engine,获取engine file。同时你也可以参考tensorrtx official readme

0.Python Code

你可以下载这个yolov5-helmet-detection-pythonn的代码进行训练,推理等操作,也可以直接下载模型
python仓库的操作步骤,请参看该仓库的README.md

1. requirement

请注意,下列流程,我在Jetson Xavier nxJetson nano上完整实现过,你同样可以在ubuntu系统上实现,如果想在windows上测试,需要你自己摸索。

Jetson nano or Jetson Xavier nx
Jetpack 4.5.1
python3 with default(jetson nano or jetson xavier nx has default python3 with tensorrt 7.1.3.0 )
tensorrt 7.1.3.0
torch 1.8.0
torchvision 0.9.0
torch2trt 0.3.0
onnx 1.4.1
opencv-python 4.5.3.56
protobuf 3.17.3
scipy 1.5.4

2. 下载yolov5-helmet-detectiont

如果你已经有了yolov5s.engine,那么仅下载{yolov5-helmet-detection}仓库,然后修改{yolov5-helmet-detection}/src/main.cpp
char* yolo_engine = "";为自己模型的位置 ,执行编译链接即可。如果没有这个文件,请参考3往后的步骤。

// 下载c++项目代码
git clone https://github.com/RichardoMrMu/yolov5-helmet-detection
// {}代表该项目的绝对路径
cd {yolov5-helmet-detection}
mkdir build
// 修改{yolov5-helmet-detection}/src/main.cpp中deepsort
//char* yolo_engine = ""; 为自己模型的位置
// frame = capture.open("");将open中换成mp4所在的路径,或者如果使用usb摄像头,就写成capture.open(0)
// 然后执行编译链接即可
cmake ..
make
// make成功后,会在build文件夹下生成一个yolosort二进制文件 运行即可
./yolohelmet // 运行二进制文件

3. 将pytorch的模型转为tensorrt支持的模型文件

因为python自身速度的问题和pytorch原生模型速度的问题,如果将检测部分的yolov5模型和track模块特征提取的模型转为tensorrt,速度会快10倍左右。

  1. 下载yolov5官方代码和模型

请注意,我下面使用的yolov5代码版本是yolov5-5,即v5.0版本,所以,如果你想自己训练模型替换engine file,请确保的yolov5代码版本是v5.0。

// 下载v5.0
git clone -b v5.0 https://github.com/ultralytics/yolov5.git
cd yolov5
mkdir weights
cd weights
// download https://github.com/ultralytics/yolov5/releases/download/v5.0/yolov5s.pt
// 这里使用yolov5s模型
wget https://github.com/ultralytics/yolov5/releases/download/v5.0/yolov5s.pt
  1. 下载并配置tensorrt
git clone https://github.com/wang-xinyu/tensorrtx
  1. 将pytorch的yolov5s.pt模型文件转为wst文件
    将tensorrtx下的get_wts.py文件拷贝到yolov5文件夹下,然后将下载好的或者训练好的yolov5s.pt模型转换为wts模型
cp tensorrtx/gen_wts.py yolov5/
cd yolov5 
python3 gen_wts.py -w ./weights/yolov5s.pt -o ./weights/yolov5s.wts
// a file 'yolov5s.wts' will be generated.

你可以在 yolov5/weights/找到yolov5s.wts模型

  1. 编译tensorrtx/yolov5项目并获取tensorrt engine file
    此处请注意,如果你是自己训练的模型,那么要将yololayer.h中的CLASS_NUMINPUT_H,INPUT_W修改为自己的参数。即文件的20,21,22行。因为此处是二分类,即火焰和烟,因此CLASS_NUM为2。
cd tensorrtx/yolov5
// update CLASS_NUM as 2 in yololayer.h 
mkdir build
cd build
cp {ultralytics}/yolov5/yolov5s.wts {tensorrtx}/yolov5/build
cmake ..
make
// yolov5s
sudo ./yolov5 -s yolov5s.wts yolov5s.engine s
// test your engine file
sudo ./yolov5 -d yolov5s.engine ../samples

然后你就得到了yolov5.engine文件,你需要将这个文件放到我的项目中,你可以创建一个{yolov5-helmet-detection}/resources文件夹放模型。

cd {yolov5-fire-smoke-detect}
mkdir resources
cp {tensorrtx}/yolov5/build/yolov5s.engine {yolov5-helmet-detection}/resources

经过以上的步骤,获得了yolov5.engine,将这个文件放到相应的位置。即可编译运行该项目。

INT8 Quantization int8模型量化

int8量化和之前的float16有些许差别,tensorrt的int8量化需要图片的calibration,正如tensorrtx readme所说。
对于一般的yolo模型训练,你可能需要下载coco_calid.zip,你可以通过这个google drive url or BAIDUYUN — 密码是a9wh . 随后解压到{project}/build/.
然后你需要将yolov5.cpp文件中第十行的USE_FLOAT16 改成USE_INT8
然后重新编译运行:

cmake ..
make 
// yolov5s
sudo ./yolov5 -s yolov5s.wts yolov5s-int8.engine s
// testyour engine file
sudo ./yolov5 -d yolov5s-int8.engine ../samples

这样你就得到了int8量化的yolov5模型了,你可以尝试一下,是否加速了。

如果你遇到问题,请在github项目yolov5-helmet-detectiont的issue中提问题,或者在这篇文章下评论。欢迎讨论。

Other Project

  • 5
    点赞
  • 63
    收藏
    觉得还不错? 一键收藏
  • 20
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 20
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值