最新!Win10 + VS2015 编译支持tensorRT的libpaddle

参考的官网文档:
https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/windows_cpp_inference.html

1 准备工作

(1)安装VS2015 + update3
注意一定要装这个版本,要update3!不要装VS2017\VS2019等高版本,不然,哈哈,你可以自己尝试一下其中的滋味。。。

地址:
http://download.microsoft.com/download/7/c/f/7cf151c3-b735-4e35-a1bb-9a48224f4a95/vs2015.3.ent_chs.iso

(2)安装cuda10.0 + cudnn 7.6
这个就不说了,编译支持cuda和tensorRT的libpaddle必备的,安装教程网上一大堆

(3)git clone paddle源码
这里最好用稳定版,我选的paddle1.7
https://github.com/PaddlePaddle/Paddle/tree/release/1.7

(4)安装cmake
这个很简单就不多说了

(5)tensorRT
这个就直接去NVIDIA官网下载就行了,和cudnn一样需要注册

2 开始编译

(1)paddle源码目录创建一个build文件夹
在这里插入图片描述
(2)cd 到build目录执行下面代码
cmake … -G “Visual Studio 14 2015” -A x64 -T host=x64
-DCMAKE_BUILD_TYPE=Release
-DWITH_MKL=ON
-DWITH_GPU=ON
-DON_INFER=ON -DWITH_PYTHON=OFF
-DCUDA_TOOKIT_ROOT_DIR=""
-DTENSORRT_ROOT=""

DCUDA_TOOKIT_ROOT_DIR填你cuda目录
DTENSORRT_ROOT填你tensorRT目录

(3)config和generating done后用VS2015打开paddle.sln
在这里插入图片描述
在这里插入图片描述
(4)然后build,先build third_party
在这里插入图片描述
build过程中要下载源码,注意网络畅通,否则会失败

(5)上面成功后build inference_lib_dist
在这里插入图片描述
经过了一段时间后build成功了
在这里插入图片描述
(6)查看生成的库
这个是inference库
在这里插入图片描述
而这个是c语言版的lib
在这里插入图片描述
查看version.txt
在这里插入图片描述
有tensorRT

以上です

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值