参考的官网文档:
https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/windows_cpp_inference.html
1 准备工作
(1)安装VS2015 + update3
注意一定要装这个版本,要update3!不要装VS2017\VS2019等高版本,不然,哈哈,你可以自己尝试一下其中的滋味。。。
地址:
http://download.microsoft.com/download/7/c/f/7cf151c3-b735-4e35-a1bb-9a48224f4a95/vs2015.3.ent_chs.iso
(2)安装cuda10.0 + cudnn 7.6
这个就不说了,编译支持cuda和tensorRT的libpaddle必备的,安装教程网上一大堆
(3)git clone paddle源码
这里最好用稳定版,我选的paddle1.7
https://github.com/PaddlePaddle/Paddle/tree/release/1.7
(4)安装cmake
这个很简单就不多说了
(5)tensorRT
这个就直接去NVIDIA官网下载就行了,和cudnn一样需要注册
2 开始编译
(1)paddle源码目录创建一个build文件夹
(2)cd 到build目录执行下面代码
cmake … -G “Visual Studio 14 2015” -A x64 -T host=x64
-DCMAKE_BUILD_TYPE=Release
-DWITH_MKL=ON
-DWITH_GPU=ON
-DON_INFER=ON -DWITH_PYTHON=OFF
-DCUDA_TOOKIT_ROOT_DIR=""
-DTENSORRT_ROOT=""
DCUDA_TOOKIT_ROOT_DIR填你cuda目录
DTENSORRT_ROOT填你tensorRT目录
(3)config和generating done后用VS2015打开paddle.sln
(4)然后build,先build third_party
build过程中要下载源码,注意网络畅通,否则会失败
(5)上面成功后build inference_lib_dist
经过了一段时间后build成功了
(6)查看生成的库
这个是inference库
而这个是c语言版的lib
查看version.txt
有tensorRT
以上です