windows下PaddleDetection的c++推理实现细节

1. 下载源码
链接如下:[https://github.com/PaddlePaddle/PaddleDetection.git]
笔者用的是v2.3版本

2. 安装相关软件
CUDA、Cudnn
Visual studio 2019
cmake
opencv
TensorRT
具体安装细节,本文不再阐述,读者自行百度安装。

3. 下载Paddle_inference推理库
下载链接:https://paddleinference.paddlepaddle.org.cn/user_guides/download_lib.html#windows
在这里插入图片描述
4、编译方法一:使用visual studio 2019
打开visual studio 2019,选择 “继续但无需代码”。
在这里插入图片描述

点击"文件",选择"打开",选择”CMake(M)“,最后打开./deploy/cpp/CMakeList.txt
在这里插入图片描述
选择"项目",点击”CMake设置“
在这里插入图片描述

CMake设置的界面如下图所示,为CUDA_LIB、CUDNN_LIB、OPENCV_DIR、PADDLE_DIR、PADDLE_LIB_NAME、TENSORRT_INC_DIR、TENSORRT_LIB_DIR、WITH_GPU、WITH_KEYPOINT、WITH_MKL、WITH_MOT、WITH_TENSORRT设置变量。
在这里插入图片描述
笔者设置的变量供您参考:
CUDA_LIB = C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\lib\x64
CUDNN_LIB = C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\lib\x64
OPENCV_DIR = D:\deeplearning_soft\opencv
PADDLE_DIR = E:\wyk\paddle_inference
PADDLE_LIB_NAME = paddle_inference
TENSORRT_INC_DIR = D:\deeplearning_soft\TensorRT-7.0.0.11
TENSORRT_LIB_DIR = D:\deeplearning_soft\TensorRT-7.0.0.11\lib
WITH_GPU 打对勾
WITH_KEYPOINT 打对勾
WITH_MKL 打对勾
WITH_MOT 打对勾
WITH_TENSORRT 打对勾

设置完变量后,点击"保存并生成CMake缓存以加载变量"
在这里插入图片描述
生成万cmake,再点击主页面的"全部生成"。
在这里插入图片描述
注意:CMAKE_BUILD_TYPE和”配置类型“都要设为Release

在这里插入图片描述
在这里插入图片描述
生成后的内容如下图所示:
在这里插入图片描述
推理时:
先进入可执行文件所在的目录中,打开cmd,并切换到该目录下:
推理命令:mian.exe --model_dir=“xxxx” --image_file=“xxxx” --device=“xxxx”
在这里插入图片描述
若您想要用PaddleDetection生成VS工程,请参考笔者的另外一篇文章。链接如下:https://blog.csdn.net/weixin_43917589/article/details/122418857?spm=1001.2014.3001.5501

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值