YOLOv5 转 Tensor RT

目录

step1:pt 模型转成 onnx

step2:查看输出的onnx模型

step3:onnx-simplifier 简化模型

step4:tensorRT安装

step5:onnx模型转trt模型


step1:pt 模型转成 onnx

yolov5/model/export.py

输出模型:

  • XXX.onnx
  • XXX.torchscript.pt

step2:查看输出的onnx模型

安装 netron

pip install netron

用netron看模型 

import netron
netron.start('best.onnx')

step3:onnx-simplifier 简化模型

安装 onnx-simplifier 

pip install onnx-simplifier

简化模型

python -m onnxsim best.onnx best_sim.onnx

step4:tensorRT安装

nvidia官网上找自己的版本 ,下载deb文件

dpkg -i nv-tensorrt-XXXX.deb
sudo apt-get update
sudo apt-get install tensorrt

step5:onnx模型转trt模型

转化 

/usr/src/tensorrt/bin/trtexec --onnx=./checkpoint/last.onnx --saveEngine=./checkpoint/last.trt

测试(未简化的模型)

float32 模型 推理速度0.01 占内存 3.15G

float16 模型 推理速度0.01 占内存 2.5G     精度几乎没变化

float8   模型 推理速度0.01 占内存 2.21G   精度有变化,但是可以接受

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值