[C++][onnxruntime]攻克onnxruntime之求输入tensor的长度

要求:已知模型输入tensor shape是[1,3,640,640],求输入tensor长度,一般我们用简单乘法1*3*640*640就可以实现,但是我看github大佬们都喜欢用std::accumulate去做,于是记录一下求解长度方法

测试环境
vs2019

onnxruntime==1.12.0

代码部分,这里以yolov8s.onnx为例子:


#include <iostream>
#include<onnxruntime_cxx_api.h>
#include <numeric>
using namespace std;
using namespace Ort;

template <typename T>
T VectorProduct(const std::vector<T>& v)
{
    return std::accumulate(v.begin(), v.end(), 1, std::multiplies<T>());
};


int main()
{

    const wchar_t* model_path = L"D:\\yolov8s.onnx";//模型路径
    Ort::Env env;//创建env
    Ort::Session session(nullptr);//创建一个空会话
    Ort::SessionOptions sessionOptions{ nullptr };//创建会话配置
    session = Ort::Session(env, model_path, sessionOptions);

    //获取输入节点数量,名称和shape

    size_t inputNodeCount= session.GetInputCount();
    std::cout << "输入节点数量:" << inputNodeCount << "\n";

    Ort::AllocatorWithDefaultOptions allocator;

    std::shared_ptr<char> inputName = std::move(session.GetInputNameAllocated(0, allocator));
    std::vector<char*> inputNodeNames;
    inputNodeNames.push_back(inputName.get());
    std::cout << "输入节点名称:" << inputName << "\n";


    Ort::TypeInfo inputTypeInfo = session.GetInputTypeInfo(0);
    auto input_tensor_info = inputTypeInfo.GetTensorTypeAndShapeInfo();
    ONNXTensorElementDataType inputNodeDataType = input_tensor_info.GetElementType();
    std::vector<int64_t> inputTensorShape = input_tensor_info.GetShape();
    std::cout << "输入节点shape:";
    for (int i = 0; i<inputTensorShape.size(); i++)
    {
        std::cout << inputTensorShape[i]<<" ";
    }
    std::cout << "\n";


    //获取输出节点数量、名称和shape
    size_t outputNodeCount = session.GetInputCount();
    std::cout << "输出节点数量:" << outputNodeCount << "\n";

    std::shared_ptr<char> outputName = std::move(session.GetOutputNameAllocated(0, allocator));
    std::vector<char*> outputNodeNames;
    outputNodeNames.push_back(outputName.get());
    std::cout << "输出节点名称:" << outputName << "\n";


    Ort::TypeInfo type_info_output0(nullptr);
    type_info_output0 = session.GetOutputTypeInfo(0);  //output0

    auto tensor_info_output0 = type_info_output0.GetTensorTypeAndShapeInfo();
    ONNXTensorElementDataType outputNodeDataType = tensor_info_output0.GetElementType();
    std::vector<int64_t> outputTensorShape = tensor_info_output0.GetShape();
    std::cout << "输出节点shape:";
    for (int i = 0; i<outputTensorShape.size(); i++)
    {
        std::cout << outputTensorShape[i]<<" ";
    }
    std::cout << "\n";


    size_t input_tensor_length = VectorProduct(inputTensorShape);
    std::cout << "输入tensor的长度:" << input_tensor_length << "\n";
	getchar();
}

输出结果:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
ONNXRuntimeTensor转换为PyTorch的Tensor格式可以使用以下C++代码: ```c++ #include <onnxruntime_cxx_api.h> #include <torch/torch.h> // 加载ONNX模型和ONNXRuntime的执行提供程序 Ort::SessionOptions options; Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test"); Ort::Session session(env, "model.onnx", options); Ort::AllocatorWithDefaultOptions allocator; // 构造输入数据 std::vector<int64_t> input_shape = {batch_size, channels, height, width}; std::vector<float> input_data(batch_size * channels * height * width); std::generate(input_data.begin(), input_data.end(), std::rand); // 创建ONNXRuntime输入Tensor Ort::MemoryInfo memory_info = Ort::MemoryInfo::CreateCpu(OrtDeviceAllocator, OrtMemTypeDefault); Ort::Value input_tensor = Ort::Value::CreateTensor<float>(memory_info, input_data.data(), input_data.size(), input_shape.data(), input_shape.size()); // 将ONNXRuntimeTensor转换为numpy数组 auto output_tensors = session.Run(Ort::RunOptions{nullptr}, input_names.data(), &input_tensor, 1, output_names.data(), output_names.size()); auto output_tensor = output_tensors.front().Get<Tensor>(); auto output_shape = output_tensor.Shape().GetDims(); auto output_data = output_tensor.Data<float>(); // 将numpy数组转换为PyTorch的Tensor auto output = torch::from_blob(output_data, output_shape).clone(); ``` 其中,`model.onnx`是ONNX格式的模型文件,`batch_size`、`channels`、`height`、`width`是输入数据的形状。`input_data`是输入数据的数组,`output_data`是转换后的输出数据的数组,`output_shape`是输出数据的形状。`output`是转换后的PyTorch的Tensor。值得注意的是,在将ONNXRuntimeTensor转换为numpy数组时,需要先通过`session.Run()`方法获取输出张量,然后再通过`output_tensor.Data<float>()`获取输出张量的数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FL1623863129

你的打赏是我写文章最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值