onnx导出yolov7模型+python的TensorRT部署(windows上进行)

参考链接:

 

onnx安装与使用_光子乘羽的博客-CSDN博客

安装onnx-graphsurgeon_一位不愿暴露自己的郑某人的博客-CSDN博客

Onnx简介以及使用_整理偏见的博客-CSDN博客

YOLOv7 部署到 TensorRT(C++ ) - 知乎 (zhihu.com)

YOLOv7 Tensorrt部署教学_哔哩哔哩_bilibili

(1条消息) YOLOv7 Tensorrt Python部署教程_一笑奈何LHY的博客-CSDN博客

先安装onnx,onnx-graphsurgeon等.....这些就以上参考链接有

pip install onnx
pip install nvidia-pyindex
pip install onnx-graphsurgeon

安好了这几个

 先把需要用的下载下来,下载地址:

GitHub - Monday-Leo/YOLOv7_Tensorrt: A simple implementation of Tensorrt YOLOv7

将下载文件夹中的efficientNMS.py与export-onnx.py复制到yolov7的train.py同级目录下

 然后运行export-onnx.py文件,需要修改

 运行成功,保存onnx模型,在你需要转换的模型同级目录中

在这个网址可以可视化网络结构:Netron

导出的onnx文件是通用的,在任意设备都可以使用

TensorRT部署用python

将onnx模型转换为engine模型步骤:

将导出的onnx模型放入下载好的tensorrt的bin文件夹下

在目录处输cmd进入命令行,这里需要修改--onnx=./后面的内容,即你训练好模型的名字以及后面保存的名字

trtexec --onnx=./best.onnx --saveEngine=./yolov7-tiny-best_fp16.engine --fp16 --workspace=200

 然后运行,等待..............................时间有点长

 这样就转换好了,保存在这个文件夹中

然后回到下载的文件夹中运行infer.py,需要修改模型地址与预测图片

 注意,这里我将源代码修改了,不是显示图片二是保存图片,在infer同级目录

 结果:

 结束啦~~~~~~~

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值