Paddle-Inference win10平台C++源码编译(GPU版本亲测成功)

13 篇文章 3 订阅
5 篇文章 0 订阅

目标

x64 win10平台生成,目标运行平台x64 win10

克隆源码

git clone https://github.com/PaddlePaddle/Paddle.git

官方源码编译文档

https://paddle-inference.readthedocs.io/en/latest/user_guides/source_compile.html

1. 环境配置

1.1 硬件

  • i7-8700
  • NVIDIA TITAN RTX
  • 内存32G
  • 1T 西部数码固态

1.2 软件

  • Win10
  • CMake 3.17.0
  • CUDA 10.2
  • cudnn 7.6.5
  • paddlepaddle branch release/2.0-rc1(代码克隆下来先checkout)
  • 构建工具 Visual Studio 14 2015
  • IDE Visual Studio 2019

2. 说明

  1. 根据官方教程推荐使用Visual Studio 2015 update 3版本进行构建
  2. 使用VS 2019打开生成的.sln项目

3. 开始编译

  1. 因为TITAN RTX属于NVIDIA图灵架构,所以设定 -DCUDA_ARCH_NAME=Turing
  2. 生成平台为64位,目标平台为64位,所以设定 -A x64 -T host=x64
  3. 生成gpu带TensorRT版本设置-DWITH_GPU和-DWITH_TENSORRT为ON,将DTENSORRT_ROOT设置为对应版本TensorRT文件夹根目录
mkdir build
cd build
cmake .. -G "Visual Studio 14 2015" -A x64 -T host=x64 -DWITH_GPU=ON -DWITH_TESTING=OFF -DON_INFER=ON -DCMAKE_BUILD_TYPE=Release -DPY_VERSION=3  -DWITH_TENSORRT=ON -DTENSORRT_ROOT="E:\\TensorRT-7.0.0.11" -DWITH_NCCL=OFF -DCUDA_ARCH_NAME=Turing

4. 生成预测库

该步骤请开好代理,因为需要从github克隆项目下来

  1. 编译结束后在build文件夹根目录,用VS 2019打开paddle.sln
  2. 将Debug切换为Release
  3. 右键ALL_BUILD解决方案,点击生成
  4. 生成成功后如下图所示,检查\build\paddle_inference_install_dir目录下面是否有成功生成.dll文件
    生成成功

问题合集

  1. x64平台生成过程出现内存溢出(out of memory),检查-A x64 -T host=x64指令是否填写正确
    异常错误
  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Alex-Leung

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值