VS2019配置ONNXRuntime c++环境

参考:https://blog.csdn.net/qq_19865329/article/details/115945454
参考:https://blog.csdn.net/hjxu2016/article/details/118391341

一、下载对应版本的onnx

在这里插入图片描述
在github上查看 pytorch1.8.1对应的版本是onnx runtime v1.8.1
我的pytorch是1.7.1 所以我下载的是onnx runtime v1.7.0 cpu 版本
选择cpu或者gpu : https://onnxruntime.ai/
下载nupkg包 链接:https://www.nuget.org/packages/Microsoft.ML.OnnxRuntime
在这里插入图片描述

在这里插入图片描述
下载得到microsoft.ml.onnxruntime.1.7.0.nupkg文件
通过使用vs2019 运行这个文件,可以的得到onnx的头文件和库文件
具体步骤如下:
先建一个文件夹,文件名可以随意,然后将nupkg文件拷贝进去
在这里插入图片描述
通过vs2019解析nupkg包
新建一个控制台应用程序,项目名称可以随意
在这里插入图片描述
选择 工具->NuGet管理包->程序包管理控制台
在这里插入图片描述
输入以下命令

 Install-Package Microsoft.ML.OnnxRuntime -Source  E:\onnx1.7.0

在这里插入图片描述
我们看到在项目文件夹下生成Microsoft.ML.OnnxRuntime.1.7.0文件
在这里插入图片描述

接下来配置环境
为了防止路径过于繁琐,我将Microsoft.ML.OnnxRuntime.1.7.0直接拷贝到E盘下面
原来的文件就可以删除了。
VC++目录 ——包含目录
将包含头文件的文件夹路径加入
在这里插入图片描述
VC++目录——库目录
静态库目录路径
在这里插入图片描述
链接器——输入——附加依赖项
加入动态链接库
路径:E:\Microsoft.ML.OnnxRuntime.1.7.0\runtimes\win-x64\native\下面
在这里插入图片描述
还需要将onnxruntime.dll放入debug或者Release(我配置的是release模式,debug也是一样)
在这里插入图片描述

在网上找的测试程序

#include <iostream>
#include <assert.h>
#include <vector>
#include <onnxruntime_cxx_api.h>
#include <string>


int main(int argc, char* argv[]) {
	Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test");
	Ort::SessionOptions session_options;
	session_options.SetIntraOpNumThreads(1);
	session_options.SetGraphOptimizationLevel(GraphOptimizationLevel::ORT_ENABLE_BASIC);
	const wchar_t* model_path = L"regnetx_800mf.onnx";
	Ort::Session session(env, model_path, session_options);
	// print model input layer (node names, types, shape etc.)
	Ort::AllocatorWithDefaultOptions allocator;
	size_t num_input_nodes = session.GetInputCount();
	std::cout << session.GetInputName(0, allocator) << std::endl;
	std::cout << session.GetOutputName(0, allocator) << std::endl;
	system("pause");
	return 0;
}

在这里插入图片描述
配置完成。

  • 14
    点赞
  • 60
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
ONNX Runtime是一个用于高性能机器学习推断的开源工具包。VSCode是一个轻量级的跨平台集成开发环境。以下是在VSCode环境中搭建ONNX Runtime C开发环境的步骤: 1. 安装VSCode:首先,我们需要下载并安装VSCode。访问VSCode官方网站,选择适用于您操作系统的版本,并按照指示进行安装。 2. 安装CMake:ONNX Runtime C使用CMake进行项目构建。因此,我们还需要安装CMake。您可以访问CMake官方网站并选择适用于您操作系统的版本。 3. 克隆ONNX Runtime库:使用命令行或VSCode的集成终端,打开一个目录并执行以下命令来克隆ONNX Runtime的GitHub库: ``` git clone --recursive https://github.com/microsoft/onnxruntime.git ``` 4. 打开ONNX Runtime C项目:在VSCode中打开ONNX Runtime C项目,通过菜单打开文件夹或使用命令行导航到ONNX Runtime库的根目录并输入以下命令打开VSCode: ``` code . ``` 5. 安装依赖项:使用VSCode的集成终端或命令行,在ONNX Runtime库的根目录下执行以下命令来安装构建所需的依赖项: ``` ./build.sh --update --build --parallel ``` 6. 配置CMake:使用VSCode的集成终端或命令行,在ONNX Runtime库的根目录下执行以下命令配置CMake生成构建文件: ``` ./build.sh --config Release --build --parallel ``` 7. 构建项目:使用VSCode的集成终端或命令行,在ONNX Runtime库的根目录下执行以下命令构建ONNX Runtime C项目: ``` ./build.sh --config Release --build --parallel ``` 8. 完成:在构建成功后,您将在ONNX Runtime库的构建目录中到生成的ONNX Runtime库文件。现在,您可以在您的C项目中使用ONNX Runtime进行机器学习推断了。 总结:上述步骤中,我们首先安装了VSCode和CMake,然后克隆了ONNX Runtime库,并使用CMake进行项目配置和构建。最后,在构建成功后,我们可以在C项目中使用ONNX Runtime进行机器学习推断。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值