前言:由于使用基本模型进行预测时,运行较慢这里将介绍tensorRT,并使用它进行推理加速。
准备工作
在已经安装好CUDA和pytorch的前提下,进入https://developer.nvidia.com/nvidia-tensorrt-download网站下载合适版本的tensorrt,下载之后是一个压缩包,进行解压,解压完成以后进入其子目录的python文件夹
并根据你的python版本进行安装,如3.10则选择cp310,如下图所示
安装方法为使用cmd首先进入到你想要安装到的虚拟环境中,然后在进入到该文件所在路径,pip install ‘上图中文件名’
随后将解压后的tensorrt文件夹中lib文件夹的所有文件复制粘贴到cuda文件夹中的lib文件夹中,这里给出我的路径,以供参考方便查找C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib
以上准备工作就完成了
安装onnx库
打开在pycharm中打卡yolov5文件夹,找到export.py,并在其终端上输入pip install onnx,如下图我的是早就安装好了的
同时你也可以在export.py中查看各个模型对应的型号
进行导出
在export.py终端输入
python export.py --weights yolov5s.pt --include eng
ine --device 0
稍作等待,便可导出成功
进行推理
让我们做一下比较,分别使用原生yolov5s.pt和刚刚导出的yolov5s.engine运行观察导出结果的速度
首先是yolov5s.pt,用了39.5ms
再看加速后的效果,仅用了5.7ms
ok 以上便是简单的tensorrt部署