模型部署
南城同学
这个作者很懒,什么都没留下…
展开
-
编译yolov5出错:error MSB3721
yolov5使用CMake编译成功之后,使用Visual Studio 编译出错:1>D:\DevlopmentSoftwares\VisualStudio\2017\Community\Common7\IDE\VC\VCTargets\BuildCustomizations\CUDA 11.1.targets(785,9): error MSB3721: 命令“"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1\bin\nvcc.ex原创 2022-03-16 22:00:00 · 5156 阅读 · 3 评论 -
[深度学习 - 目标检测] yolov5的TensorRT模型加速
1) 克隆tensorrtxgit clone https://github.com/wang-xinyu/tensorrtx.git2)下载文件dirent.h下载文件dirent.h, 下载地址 https://github.com/tronkko/dirent放置到 tensorrtx/include文件夹下,文件夹需新建.3) 生成yolov5s.wts文件...原创 2022-03-16 21:45:00 · 5150 阅读 · 1 评论 -
TCT模型部署步骤(4:启动)
1. 启动redis路径:E:\Dev\TCTDetect\Projects\ReleaseRedis1.1. 双击启动 redis-server.exe1.2. 双击启动redis-cli.exe在其控制台中输入:SELECT 102. 启动Python注意:先安装 python3.8,然后配置一下环境变量;默认路径:C:\Users\Charles\AppData\Local\Programs\Python\Python382.1. 命令行启动 app.py进入如下文件夹E:原创 2022-02-16 10:45:06 · 763 阅读 · 0 评论 -
TCT模型部署步骤(3:代码修改)
1. 代码层面TctDetect项目,main.cpp下: //本机是单显卡,这里改为"false"24 const bool TwoDetect = false; --- //因为是单显卡,所以把79、80、82、83、84行注销掉78 ObjectDetect od1(&pp, 1, inferConf.posEnginePath, inferConf.negEnginePath, inferConf.gpuid, inferConf.ti原创 2022-02-16 10:41:10 · 1636 阅读 · 0 评论 -
TCT模型部署步骤(2:模型相关)
1. 模型生成模型需要根据电脑的配置来生成1.1. 准备依赖资源路径:E:\Dev\TCTDetect\models\convert1.2. 生成1.2.1 生成 331_best.engineE:\Dev\TCTDetect\models\convert 路径cmd运行//可先运行以下,查看命令含义yolov5_convert_anchor_2_gamma.exe //./yolov5 -s [.wts] [.engine] [s/m/l/x/s6/m6/l6/x6 or c/c原创 2022-02-16 10:37:24 · 1408 阅读 · 0 评论 -
TCT模型部署步骤(1:准备)
1. 工具及库依赖1.1. 需要安装的工具Visual Studiopython3.8资源路径: D:\安装包\python-3.8.8-amd64CUDA11.1默认安装路径:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1压缩包中有一个cudnn-11.2-windows-x64-v8.1.1.33,要将该路径bin文件夹中的7个文件,拷贝到上面安装路径bin文件夹中;资源路径:E:\开发工具资源\TCT模型部原创 2022-02-16 10:29:53 · 1736 阅读 · 0 评论