ONNX Runtime(ORT) C++ Windows 深度学习模型部署简易教程

之前介绍了TensorRT部署ONNX模型,发现我的模型比较特殊(实现的太烂了 ),使用TensorRT推理不能得到正确的结果,使用ORT部署成功了,因此分享一下ORT的部署过程。

〇、 准备工作

1. 老生常谈的安装 CUDA Toolkit 和 cuDNN

2. 安装 ONNX Runtime

先给一个官网地址: ORT官网,官网的C++安装方式好像是针对.Net项目的(反正我是没看懂 )。所以这里简单介绍一下怎么安装,有两种方法:

a. 下载仓库编译好的ORT库(推荐)

仓库编译好的ORT库有系统版本与CPU和GPU版本区分注意选择自己需要的,ORT下载地址
同时注意ORT所支持的CUDA和cuDNN版本,见CUDA支持官方文档
我的 CUDA Toolkit 是12.1,cuDNN是8.9.7,因此选用1.17版本ORT。
在这里插入图片描述
我需要使用GPU版本ORT,并且我的CUDA版本是12.1因此选择以下文件。
在这里插入图片描述
下载完成得到以下文件。
在这里插入图片描述

Note:

  • CUDA版本只向下兼容大版本号,即12.2只支持12.x,而不支持11.x。
  • ORT支持使用TensorRT作为后端来提高模型的推理性能。(ORT真好用啊,薄纱TensorRT ),若想使用TensorRT,需要使用源码自己编译ORT库,同时要注意ORT所支持的CUDA和TensorRT版本,见TensorRT支持官方文档
b. 下载源码自己编译

下载源码编译可以参考:源码仓库官方编译文档

这里分享一个中文编译教程:Windows下编译Onnxruntime

3. 导出成功的ONNX模型

4. 配置 Visual Studio

主要是配置包含路径和依赖库,类似OpenCV配置。


准备就绪,终于可以开始愉快的部署过程了。

一、初始化ORT

	// 初始化ONNX Runtime
    Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "sdp infer");

    // 创建会话选项并添加CUDA
    Ort::SessionOptions session_options;
    uint32_t device_id = 0; // CUDA 设备 ID
    // 启用CUDA
    Ort::ThrowOnError(OrtSessionOptionsAppendExecutionProvider_CUDA(session_options, device_id));

    // 加载模型
    const std::wstring model_path = L"model.onnx";
    Ort::Session session(env, model_path.c_str(), session_options);

上面代码主要做了2件事,(1)创建ORT环境env,其全局唯一;(2)创建会话session可以存在多个,一个会话对应一个ONNX模型,env可以运行多个session

二、设置输入与输出

设置输入输出需要与ONNX模型的输入输出严格对应,这里推荐一个查看模型结构的工具:Netron
在这里插入图片描述
使用Netron可以看到我的模型的输入输出节点名称与数据类型和形状信息。
下面我们使用这些信息设置输入输出,在例子中我需要2输入input, s_id,1输出logits。并且输入图像需要先进行预处理,我们可以使用OpenCV辅助。基本上都是些公式化的书写,注意代码中的数据类型与模型对应

 图像预处理 /
	 // 用于保存input张量值
    std::vector<float> input_tensor_values; // float32 input

    // 创建输入张量
    cv::Mat img = cv::imread("E:/myDataset/mya1/train/fake/1100.bmp");
    cv::Size imgSize(224, 224); 
    cv::Mat blob; // 用于存储预处理后的图像
    if (img.size() != imgSize) 
    {
        cv::resize(img, blob, imgSize, 0, 0, cv::INTER_AREA); // 图像缩放 
    }
    else
    {
        img.copyTo(blob); 
    }
    blob = cv::dnn::blobFromImage(blob, 1.0 / 255, blob.size(), cv::Scalar(0, 0, 0), true, false, CV_32F); // 图像转为blob格式 

    float* data_ptr = reinterpret_cast<float*>(blob.data); // 获取blob数据指针
    int num_elements = blob.total() * blob.channels(); // 获取blob数据元素个数
    // 将blob数据拷贝到input张量中
    for (int i = 0; i < num_elements; ++i) 
    {
        /*std::cout << data_ptr[i] << " ";*/
        input_tensor_values.push_back(std::move(data_ptr[i]));
    }
 图像预处理 over /

    // 创建内存信息
    auto memory_info = Ort::MemoryInfo::CreateCpu(OrtArenaAllocator, OrtMemTypeDefault);
    // 创建input张量
    std::vector<int64_t> input_tensor_shape = { 1, 3,224,224 }; // input张量形状
    Ort::Value input_tensor = Ort::Value::CreateTensor<float>(memory_info, input_tensor_values.data(), input_tensor_values.size(), input_tensor_shape.data(), input_tensor_shape.size());

    // 创建s_id张量
    std::vector<int64_t> sid_tensor_shape = { 1 }; // s_id张量形状
    std::vector<int32_t> sid_tensor_values = { 0 }; // int32 s_id
    Ort::Value sid_tensor = Ort::Value::CreateTensor<int32_t>(memory_info, sid_tensor_values.data(), sid_tensor_values.size(), sid_tensor_shape.data(), sid_tensor_shape.size());

    // 设置输入节点名称
    std::vector<const char*> input_node_names = { "input","s_id" };

    // 创建输入张量数组
    std::vector<Ort::Value> input_tensors; // 多输入
    input_tensors.push_back(std::move(input_tensor));
    input_tensors.push_back(std::move(sid_tensor));

    // 设置输出节点名称
    std::vector<const char*> output_node_names = { "logits" };

Note: Ort::Value删除了赋值操作,因此要使用std::move移动语义对其对象操作

三、进行推理

    // 进行推理
    auto output_tensors = session.Run(Ort::RunOptions{ nullptr },  // 运行选项 为空即可
                                    input_node_names.data(),    // 输入节点名称
                                    input_tensors.data(),       // 输入张量
                                    input_tensors.size(),       // 输入张量数量
                                    output_node_names.data(),   // 输出节点名称
                                    output_node_names.size()	 // 输出张量数量
                                     );

四、获得结果

// 获取输出张量
    float* floatarr = output_tensors.front().GetTensorMutableData<float>();
    for (int i = 0; i < 2; i++)
        printf(" %f\n", floatarr[i]);

使用GetTensorMutableData获取数据头指针。


※ 可能遇到的问题

1. Ort::Global::api_ 是 nullptr。

在这里插入图片描述
这是由于Windows默认的System32下存在同名的onnxruntime.dll,其优先级高于ORT库中的。
解决方法: 将ORT的lib文件夹里的onnxruntime.dll、onnxruntime_providers_shared.dll、onnxruntime_providers_cuda.dll复制到工程生成的exe文件夹下。

2. ThrowStatus函数报错

在这里插入图片描述
这个错误有很多原因引起,CUDA错误、输入数据类型与模型不一致、env或session为空指针等等。
解决方法: 通过调用堆栈查看报错语句处理,或者使用try-catch捕捉Ort::Exception获取错误信息。

  • 11
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
这里是一个使用C++OnnxRuntime部署Onnx模型的完整工程代码,供你参考: ```c++ #include <iostream> #include <vector> #include <string> #include <chrono> #include <onnxruntime_cxx_api.h> // 定义模型输入和输出的名称和形状 const char* INPUT_NAME = "input"; const char* OUTPUT_NAME = "output"; const std::vector<int64_t> INPUT_SHAPE = { 1, 3, 224, 224 }; const std::vector<int64_t> OUTPUT_SHAPE = { 1, 1000 }; int main(int argc, char* argv[]) { if (argc != 2) { std::cout << "Usage: " << argv[0] << " <model_path>" << std::endl; return 1; } // 创建Ort::Env和Ort::SessionOptions对象 Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test"); Ort::SessionOptions session_options; session_options.SetIntraOpNumThreads(1); session_options.SetGraphOptimizationLevel(GraphOptimizationLevel::ORT_ENABLE_ALL); try { // 创建Ort::Session对象 Ort::Session session(env, argv[1], session_options); // 获取模型的输入和输出信息 Ort::AllocatorWithDefaultOptions allocator; size_t num_input_nodes = session.GetInputCount(); size_t num_output_nodes = session.GetOutputCount(); std::cout << "Number of input nodes: " << num_input_nodes << std::endl; std::cout << "Number of output nodes: " << num_output_nodes << std::endl; // 创建模型输入数据 std::vector<float> input_data(INPUT_SHAPE[1] * INPUT_SHAPE[2] * INPUT_SHAPE[3], 1.0f); // 创建Ort::Value对象,用于存储输入和输出数据 Ort::Value input_tensor = Ort::Value::CreateTensor<float>(allocator, input_data.data(), input_data.size(), INPUT_SHAPE.data(), INPUT_SHAPE.size()); Ort::Value output_tensor = Ort::Value::CreateTensor<float>(allocator, OUTPUT_SHAPE.data(), OUTPUT_SHAPE.size()); // 运行模型 auto start = std::chrono::high_resolution_clock::now(); session.Run(Ort::RunOptions{ nullptr }, { INPUT_NAME }, { &input_tensor }, 1, { OUTPUT_NAME }, { &output_tensor }, 1); auto end = std::chrono::high_resolution_clock::now(); std::cout << "Inference time: " << std::chrono::duration_cast<std::chrono::milliseconds>(end - start).count() << "ms" << std::endl; // 获取输出数据 std::vector<float> output_data(OUTPUT_SHAPE[1]); output_tensor.CopyTo<float>(output_data.data(), OUTPUT_SHAPE[1]); // 输出前5个结果 std::cout << "Top 5 results:" << std::endl; for (int i = 0; i < 5; i++) { int max_index = std::distance(output_data.begin(), std::max_element(output_data.begin(), output_data.end())); std::cout << max_index << ": " << output_data[max_index] << std::endl; output_data[max_index] = -1.0f; } } catch (const std::exception& ex) { std::cerr << ex.what() << std::endl; return 1; } return 0; } ``` 在使用该代码之前,你需要先安装OnnxRuntime库,并在代码中添加库的头文件和链接器选项。该代码读取命令行中的模型路径,并使用OnnxRuntime加载模型、运行推理并输出结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值