onnxruntime (C++/CUDA) 编译安装及部署

6 篇文章 0 订阅
3 篇文章 1 订阅

前几天使用了LibTorch对模型进行C++转换和测试,发现速度比原始Python的Pytorch模型提升了将近2倍。现在尝试以下另一种跨平台的模型转换方式——Onnx,可实现跨X86/ARM架构的迁移应用。

本文主要介绍C++版本的onnxruntime使用,Python的操作较容易就不再提及了。

一、克隆及编译

git clone --recursive https://github.com/Microsoft/onnxruntime
cd onnxruntime/
git checkout v1.8.0

这里建议checkout到旧tag,否则容易因为版本过新而编译失败,比如Cmake版本要求过高、CUDA版本不匹配等问题。若跟随网上其他教程,大概率会因为版本过新而导致后续编译失败。

接下来编译:

./build.sh --skip_tests --use_cuda --config Release --build_shared_lib --parallel --cuda_home /usr/local/cuda-11.3 --cudnn_home /usr/local/cuda-11.3

其中的use_cuda表示你要使用CUDA的onnxruntime,cuda_homecudnn_home均指向你的CUDA安装目录即可。

最后就编译成功了:

[100%] Linking CXX executable onnxruntime_test_all
[100%] Built target onnxruntime_test_all
[100%] Linking CUDA shared module libonnxruntime_providers_cuda.so
[100%] Built target onnxruntime_providers_cuda
2022-03-15 13:49:03,260 util.run [DEBUG] - Subprocess completed. Return code: 0
2022-03-15 13:49:03,260 build [INFO] - Build complete

二、onnxruntime使用实例

2.1 onnx模型保存

重点关注example的设置(输入)和如何export出onnx模型。

import numpy as np
from modules.feature_extracter_without_delta_layer import featureExtracter


checkpoint = torch.load("./amodel.pth.tar")
amodel = featureExtracter(channels=1)
amodel.load_state_dict(checkpoint['state_dict']) 
amodel.cuda()
amodel.eval()

example = torch.rand(1, 1, 32, 900)
example = example.cuda()
torch.onnx.export(amodel,
                 (example),
                 'overlapTransformer.onnx',
                 input_names = ['input'],
                 output_names = ['output'],
                 opset_version=11,
                 verbose = True)

2.2 onnx模型的C++调用

其中的cuda_optionsAppendExecutionProvider_CUDA的联合使用保证了CUDA加速。

#include <iostream>
#include <vector>
#include <chrono>
#include <string>
#include <vector>
#include <onnxruntime_cxx_api.h>

using namespace std;


int main()
{
    Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test");
    Ort::SessionOptions session_options;

    OrtCUDAProviderOptions cuda_options{
          0,
          OrtCudnnConvAlgoSearch::EXHAUSTIVE,
          std::numeric_limits<size_t>::max(),
          0,
          true
      };

    session_options.AppendExecutionProvider_CUDA(cuda_options);
    const char* model_path = "./overlapTransformer.onnx";

    int width = 900;
    int height = 32;
    int len_arr = width*height;
    float virtual_image[len_arr];
    for (int i=0; i<height; i++)
        for (int j=0; j<width; j++)
        {
            virtual_image[int(i*width+j)] = 1; // range
        }


    Ort::Session session(env, model_path, session_options);
    // print model input layer (node names, types, shape etc.)
    Ort::AllocatorWithDefaultOptions allocator;

    // print number of model input nodes
    size_t num_input_nodes = session.GetInputCount();
    std::vector<const char*> input_node_names = {"input"};
    std::vector<const char*> output_node_names = {"output"};

    std::vector<int64_t> input_node_dims = {1, 1, 32, 900};
    size_t input_tensor_size = 32 * 900;
    std::vector<float> input_tensor_values(input_tensor_size);
    for (unsigned int i = 0; i < input_tensor_size; i++)
        input_tensor_values[i] = float(virtual_image[i]);
    // create input tensor object from data values !!!!!!!!!!
    auto memory_info = Ort::MemoryInfo::CreateCpu(OrtArenaAllocator, OrtMemTypeDefault);

    Ort::Value input_tensor = Ort::Value::CreateTensor<float>(memory_info, input_tensor_values.data(),
                                                            input_tensor_size, input_node_dims.data(), 4);

    std::vector<Ort::Value> ort_inputs;
    ort_inputs.push_back(std::move(input_tensor));

    auto output_tensors = session.Run(Ort::RunOptions{nullptr}, input_node_names.data(), ort_inputs.data(),
                                    ort_inputs.size(), output_node_names.data(), 1);

    float* floatarr = output_tensors[0].GetTensorMutableData<float>();

    for (int i=0; i<256; i++)
    {
        std::cout<<floatarr[i]<<std::endl;
    }

    return 0;
}

相关教程,可供参考:
https://github.com/microsoft/onnxruntime
https://blog.csdn.net/znsoft/article/details/114583048
https://ask.csdn.net/questions/7619412
https://blog.csdn.net/XCCCCZ/article/details/110356437

  • 10
    点赞
  • 97
    收藏
    觉得还不错? 一键收藏
  • 16
    评论
要在 VS2022 中安装 ONNX Runtime C++ API,您可以按照以下步骤进行操作: 1. 下载 ONNX Runtime C++ API 的源代码:您可以从 ONNX Runtime 的 GitHub 存储库下载源代码。请确保选择与您的平台和配置相匹配的版本。 2. 打开 Visual Studio 2022:确保您已经成功安装了 Visual Studio 2022,并打开它。 3. 创建新项目:选择 "新建项目",然后选择适合您的项目类型(例如,控制台应用程序)。 4. 配置项目属性:在项目资源管理器中,右键单击您的项目,然后选择 "属性"。在属性窗口中,选择 "VC++ 目录" 选项卡。 5. 添加 ONNX Runtime 头文件目录:在 "包含目录" 字段中,添加 ONNX Runtime 头文件的路径。这取决于您下载的源代码的位置。 6. 添加 ONNX Runtime 库文件目录:在 "库目录" 字段中,添加 ONNX Runtime 库文件的路径。这取决于您下载的源代码的位置。 7. 链接 ONNX Runtime 库文件:在 "链接器" -> "输入" 选项卡中,添加 ONNX Runtime 库文件的名称。这些库文件通常以 `.lib` 或 `.dll` 结尾。 8. 编写代码:现在您可以开始编写使用 ONNX Runtime C++ API 的代码了。您需要包括 ONNX Runtime 的头文件,并在代码中使用相应的函数和类。 9. 构建和运行项目:构建项目并运行生成的可执行文件,以验证您的代码是否正常工作。 请注意,这只是一个大致的指南,具体的步骤可能会根据您的项目和配置有所不同。确保仔细阅读 ONNX Runtime 的文档,并遵循它们提供的详细说明来安装和使用 ONNX Runtime C++ API。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值