使用tensorRT推理加速

在这里插入图片描述
前言:由于使用基本模型进行预测时,运行较慢这里将介绍tensorRT,并使用它进行推理加速。

准备工作

在已经安装好CUDA和pytorch的前提下,进入https://developer.nvidia.com/nvidia-tensorrt-download网站下载合适版本的tensorrt,下载之后是一个压缩包,进行解压,解压完成以后进入其子目录的python文件夹在这里插入图片描述
并根据你的python版本进行安装,如3.10则选择cp310,如下图所示
在这里插入图片描述
安装方法为使用cmd首先进入到你想要安装到的虚拟环境中,然后在进入到该文件所在路径,pip install ‘上图中文件名’
随后将解压后的tensorrt文件夹中lib文件夹的所有文件复制粘贴到cuda文件夹中的lib文件夹中,这里给出我的路径,以供参考方便查找C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib
以上准备工作就完成了

安装onnx库

打开在pycharm中打卡yolov5文件夹,找到export.py,并在其终端上输入pip install onnx,如下图我的是早就安装好了的在这里插入图片描述
同时你也可以在export.py中查看各个模型对应的型号在这里插入图片描述

进行导出

在export.py终端输入

python export.py --weights yolov5s.pt --include eng
ine --device 0

稍作等待,便可导出成功在这里插入图片描述

进行推理

让我们做一下比较,分别使用原生yolov5s.pt和刚刚导出的yolov5s.engine运行观察导出结果的速度
首先是yolov5s.pt,用了39.5ms
在这里插入图片描述
再看加速后的效果,仅用了5.7ms在这里插入图片描述

ok 以上便是简单的tensorrt部署

在这里插入图片描述

  • 6
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值