目录
step1:pt 模型转成 onnx
yolov5/model/export.py
输出模型:
- XXX.onnx
- XXX.torchscript.pt
step2:查看输出的onnx模型
安装 netron
pip install netron
用netron看模型
import netron
netron.start('best.onnx')
step3:onnx-simplifier 简化模型
安装 onnx-simplifier
pip install onnx-simplifier
简化模型
python -m onnxsim best.onnx best_sim.onnx
step4:tensorRT安装
nvidia官网上找自己的版本 ,下载deb文件
dpkg -i nv-tensorrt-XXXX.deb
sudo apt-get update
sudo apt-get install tensorrt
step5:onnx模型转trt模型
转化
/usr/src/tensorrt/bin/trtexec --onnx=./checkpoint/last.onnx --saveEngine=./checkpoint/last.trt
测试(未简化的模型)
float32 模型 推理速度0.01 占内存 3.15G
float16 模型 推理速度0.01 占内存 2.5G 精度几乎没变化
float8 模型 推理速度0.01 占内存 2.21G 精度有变化,但是可以接受