c++使用onnxruntime时session->Run出现的问题

文章讲述了在C++程序中使用ONNXRuntime进行模型推理时遇到的问题,涉及到环境设置(如TensorRT和CUDA)、Session的生命周期以及错误代码。作者发现,问题与环境变量有关,通过设置静态环境或不使用特定执行提供者配置解决了该问题,但仍需进一步理解ONNXRuntime的工作原理。
摘要由CSDN通过智能技术生成

问题

在c++程序中要引入onnxruntime进行onnx的模型推理,出现了一个问题。
在程序开始加载模型建立会话时,会先用假数据进行一次session->Run,这时候是能正常运行的

Ort::Session* m_session;  //类的私有成员

void xxxx::loadDeblurOnnx()
{
    Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "default");
    const ORTCHAR_T* model_path = L"onnx_modules/xxxxx.onnx";

    // set options
    Ort::SessionOptions session_option;
    session_option.SetIntraOpNumThreads(1);
    session_option.SetGraphOptimizationLevel(ORT_ENABLE_ALL);

    // use CUDA
    //OrtCUDAProviderOptions cuda_options;
    //session_option.AppendExecutionProvider_CUDA(cuda_options);

    // use tensorRT
    OrtTensorRTProviderOptions trt_options{};
    trt_options.device_id = 0;
    trt_options.trt_engine_cache_enable = 1;
    trt_options.trt_engine_cache_path = "onnx_modules/cache";
    trt_options.trt_max_workspace_size = 4294967296;
    trt_options.trt_min_subgraph_size = 1;
    trt_options.trt_max_partition_iterations = 1;
    trt_options.trt_fp16_enable = 1;

    session_option.AppendExecutionProvider_TensorRT(trt_options);

    m_session = new Ort::Session(env, model_path, session_option);

    Ort::AllocatorWithDefaultOptions allocator;
    auto input_info = m_session->GetInputTypeInfo(0);
    auto input_type_info = input_info.GetTensorTypeAndShapeInfo();
    input_dims = input_type_info.GetShape();
    
    // Create input tensor
    std::vector<float> input_data(input_dims[0] * input_dims[1] * input_dims[2] * input_dims[3], 1.0f); // initialize input data with dummy values
    Ort::Value inputTensor = Ort::Value::CreateTensor<float>(memoryInfo, input_data.data(), input_data.size(), input_dims.data(), input_dims.size());
    if (!inputTensor.IsTensor()) {
        std::cerr << "Failed to create input tensor." << std::endl;
        assert(false && "Failed to create input tensor."); // Assertion failure
    }
    const char* input_names[] = { "input" };
    const char* output_names[] = { "output" };
    m_session->Run(Ort::RunOptions{nullptr}, input_names, &inputTensor, 1, output_names, 1);
}

但是在程序运行中,调用session->Run时,则会报错

float* xxxx::runDeblurOnnx(std::vector<float>& inputData)
{
    if(inputData.empty()){
        return nullptr;
    }
    Ort::Value inputTensor = Ort::Value::CreateTensor<float>(memoryInfo, inputData.data(), inputData.size(), input_dims.data(), input_dims.size());
    if (!inputTensor.IsTensor()) {
        std::cerr << "Failed to create input tensor." << std::endl;
        assert(false && "Failed to create input tensor."); // Assertion failure
    }
    const char* input_names[] = { "input" };
    const char* output_names[] = { "output" };
    std::vector<Ort::Value> outputs;

    outputs = m_session->Run(Ort::RunOptions{nullptr}, input_names, &inputTensor, 1, output_names, 1);

    float* output = outputs.back().GetTensorMutableData<float>();
    return output;
}

报错问题为:异常: 0xC0000005: 读取位置 0x00007FFD6EB65258 时发生访问冲突。

解决

在排查后发现,如果

  • 当前函数内执行过
m_session = new Ort::Session(env, model_path, session_option);

那么session->Run就能正常运行。一旦跨函数了就不可以。

  • 或者,session_option不使用cuda或者tensorrt的配置,只使用默认的配置,也能正常运行。

在搜索后,看到一个也是session->Run出问题的案例。虽然具体情况和我的不太一样,但姑且试用了对应的方法:尝试将 Ort::Env 变量设为静态

修改为:

static Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "default");

问题解决了,但还是没有完全了解这个问题的原因。

一些猜想:

  • Ort::Env 对象负责设置整个推理过程中的日志记录级别和其他环境配置,它需要在程序的整个生命周期内都保持活跃状态。
  • Ort::Session 对象依赖于 Ort::Env 对象的状态,在session->Run时还会读取调用建立session时的env的信息。
  • 静态变量在C++中是线程安全的,这可能避免了多线程环境中产生的问题。
  • 12
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
onnxruntime-gpu-c++是一个用于在GPU上运行模型的C++库,它支持使用ONNX格式的模型进行推理。下面是一个简单的部署步骤: 1. 安装CUDA和cuDNN onnxruntime-gpu-c++需要CUDA和cuDNN来加速模型推理。您需要安装与onnxruntime-gpu-c++版本兼容的CUDA和cuDNN。您可以从NVIDIA官方网站下载并安装这些软件。 2. 安装onnxruntime-gpu-c++ 您可以从onnxruntime-gpu-c++的GitHub仓库中下载源代码,并使用CMake生成库文件。在生成过程中,您需要指定CUDA和cuDNN的路径。 3. 加载模型 使用onnxruntime-gpu-c++加载ONNX格式的模型。您可以使用onnxruntime-cxx库中的API来加载模型并进行推理。以下是一个简单的示例代码: ```cpp #include <iostream> #include <vector> #include <chrono> #include <onnxruntime_cxx_api.h> int main() { Ort::SessionOptions session_options; Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test"); Ort::Session session(env, "model.onnx", session_options); Ort::AllocatorWithDefaultOptions allocator; Ort::Value input_tensor = Ort::Value::CreateTensor<float>(allocator, {1, 3, 224, 224}); float* input_tensor_data = input_tensor.GetTensorMutableData<float>(); // fill input tensor with data ... std::vector<const char*> input_names = {"input"}; std::vector<const char*> output_names = {"output"}; std::vector<int64_t> input_shape = {1, 3, 224, 224}; std::vector<float> output_data(1000); Ort::RunOptions run_options; Ort::TensorSlicer<float> input_tensor_slicer(input_tensor, input_shape); auto start_time = std::chrono::high_resolution_clock::now(); for (auto& slice : input_tensor_slicer) { Ort::Value input_tensor_slice = Ort::Value::CreateTensor<float>(allocator, slice.shape().data(), slice.shape().size(), slice.data(), slice.size()); Ort::Value output_tensor = session.Run(run_options, input_names.data(), &input_tensor_slice, 1, output_names.data(), 1); std::memcpy(output_data.data() + slice.offset(), output_tensor.GetTensorData<float>(), slice.size() * sizeof(float)); } auto end_time = std::chrono::high_resolution_clock::now(); std::cout << "Inference time: " << std::chrono::duration_cast<std::chrono::milliseconds>(end_time - start_time).count() << "ms" << std::endl; // process output data ... } ``` 在这个示例中,我们使用onnxruntime-gpu-c++加载了名为“model.onnx”的模型,并将输入数据填充到名为“input”的张量中。然后,我们运行了推理,并将输出数据存储在名为“output_data”的向量中。最后,我们对输出数据进行了处理。 4. 运行推理 在加载模型和填充输入数据后,您可以使用session.Run()方法运行推理。您需要指定输入和输出张量的名称,并将它们传递给session.Run()方法。 5. 处理输出 session.Run()方法将返回一个或多个输出张量。您可以使用GetTensorData()方法获取输出张量的数据,并对其进行处理。 这些是一个简单的onnxruntime-gpu-c++部署步骤。您可以根据具体情况进行适当的修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值