【ONNXRuntime+visual studio+CMake+cuda环境搭建】

环境需求

CUDA10.2 可不需要

visual studio2019

Cmake

onnxruntime

Cmake

Cmake安装直接下载win x86_64 Download | CMake

cmake-3.23.1-windows-x86_64.msi

然后安装到系统目录就可以了

 

安装ONNXRuntim

You may either get a prebuit onnxruntime from Releases · microsoft/onnxruntime · GitHub. For example, you may download onnxruntime-win-x64-***.zip and unzip it to any folder.

解压到指定目录,后续需要填写

下载Onnx sample源码与依赖

(optional) libpng 1.6

You may get a precompiled libpng library from https://onnxruntimetestdata.blob.core.windows.net/models/libpng.zip

https://github.com/microsoft/onnxruntime-inference-examples

编译sample c++项目

cd onnxruntime-inference-examples/c_cxx
mkdir build && cd build
cmake .. -A x64 -T host=x64 -DLIBPNG_ROOTDIR=C:\path\to\your\libpng\binary -DONNXRUNTIME_ROOTDIR=c:\dev\ort_install

#我的例子
cmake .. -A x64 -T host=x64 -DLIBPNG_ROOTDIR=D:\work\libpng -DONNXRUNTIME_ROOTDIR=D:\work\onnxruntime-win-x64-1.11.0

编译后会输出sln项目文件打开

右键单击MNIST 设置MNIST项目为启动项目

不得不表扬一下,微软写的这个虽然丑但是挺好用的

 

问题

1、需要model.onnx文件的话可以联系留言我,发不上来

Ort::GetApi(...) 返回 nullptr。表示找不到模型文件

2、需要注意的是,如果已经装过onnxruntime,系统目录下会存在,需要将下载后的onnxruntime的动态链接库替换掉原来系统中的,不然会出现版本对应不上的问题,

也可以直接将D:\work\onnxruntime-win-x64-1.11.0\dll中的文件复制到Debugexe同级目录下,会优先链接当前目录下的dll

The given version [11] is not supported, only version 1 to 7 is supported in this build.

拷贝之后dll路径正确 

 

 下一步就可以通过c++_api.h添加我们的自定义算子了!

  • 24
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 23
    评论
以下是在 Windows 上使用 C++ 安装 onnxruntime-gpu 的步骤: 1. 安装 Visual Studio 2019,确保安装时勾选了 C++ 工作负载。 2. 安装 CUDA Toolkit 和 cuDNN。请根据您的 GPU 型号和操作系统版本选择相应的版本。在安装 CUDA Toolkit 时,建议选择自定义安装并仅安装所需的组件。 3. 下载 onnxruntime-gpu 的源代码。您可以从 onnxruntime 的 GitHub 仓库中克隆源代码,也可以下载预编译的二进制文件。 4. 使用 Visual Studio 打开解决方案文件 onnxruntime\onnxruntime.sln。 5. 在 Visual Studio 的“解决方案资源管理器”中右键单击“onnxruntime”项目,选择“生成”->“生成解决方案”。 6. 打开“onnxruntime\cmake\windows\CMakeSettings.json”文件,修改“CUDA_TOOLKIT_ROOT_DIR”和“CUDNN_HOME”变量的值为您安装 CUDA Toolkit 和 cuDNN 的路径。 7. 在 Visual Studio 的“解决方案资源管理器”中右键单击“onnxruntime”项目,选择“属性”。 8. 在“配置属性”->“VC++ 目录”中,添加 CUDA Toolkit 和 cuDNN 的 include 文件夹路径。 9. 在“配置属性”->“连接器”->“常规”中,添加 CUDA Toolkit 和 cuDNN 的库文件夹路径。 10. 在“配置属性”->“连接器”->“输入”中,添加以下库文件: - cublas.lib - cudnn.lib - cudart.lib - nvinfer.lib - nvinfer_plugin.lib - onnxruntime.lib 11. 在 Visual Studio 中重新生成解决方案。 12. 测试 onnxruntime-gpu 是否安装成功。您可以使用 onnxruntime-gpu 提供的 C++ API 来加载和运行 ONNX 模型。 希望这些步骤可以帮助您成功安装 onnxruntime-gpu。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 23
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

子韵如初

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值