onnx优化系列 - 获取中间Node的inference shape的方法

ONNX获取中间Node的inference shape的方法

需求描述

很多时候发现通过tensorflow或者pytorch转过来的模型是没有中间的node的shape的,比如下面这样:
原始模型
但是碰到一些很奇怪的算子的时候,我们又想知道他对上一层feature map的形状影响是怎样的,于是下面的模型看起来会更友好一些
带中间shape的模型
这里之所以看上去和原来的node的分布都不一样,是因为我在这里将pad和biasadd加到conv中了已经。

原理

ONNX本身提供了进行inference的api:

shape_inference.infer_shapes()

但是呢,这里进行inference并不是根据graph中的tensor,而是根据graph的input中各个tensor的tensor_value_info。所以我们需要做的就是根据各个tensor的信息创建出对应的tensor_value_info之后将其append进graph.inputs即可。

最开始我进行infer_shapes之后发现没用就是因为graph.inputs中的tensor_value_info只有input node的。

代码

import onnx
from onnx.tools import update_model_dims
import numpy as np
import onnx.helper as helper
from onnx import shape_inference, TensorProto
import sys

ONNX_DTYPE = {
    0: TensorProto.FLOAT,
    1: TensorProto.FLOAT,
    2: TensorProto.UINT8,
    3: TensorProto.INT8,
    4: TensorProto.UINT16,
    5: TensorProto.INT16,
    6: TensorProto.INT32,
    7: TensorProto.INT64,
    8: TensorProto.STRING,
    9: TensorProto.BOOL
}

# load model
onnx_model = onnx.load("tf_resnet_v2_50_onnx.onnx")
graph = onnx_model.graph

# rewrite the input tensor of graph
input_tensor = graph.input[0]
input_shape = input_tensor.type.tensor_type.shape.dim
input_tensor_new = onnx.helper.make_tensor_value_info(name = input_tensor.name, elem_type = 1, 
                                                      shape = [1, input_shape[1].dim_value, input_shape[2].dim_value, input_shape[3].dim_value])
graph.input.remove(input_tensor)
graph.input.insert(0, input_tensor_new)

# append all tensor infos to graph input
weight_infos = []
tensors = graph.initializer
for i, tensor in enumerate(tensors):
    value_info = helper.make_tensor_value_info(tensor.name, ONNX_DTYPE[tensor.data_type], tensor.dims)
    weight_infos.append(value_info)
    graph.input.insert(i+1, value_info) # because 0 is for placeholder, so start index is 1

# run node shape inference
node = graph.node
value_info = graph.value_info
print("Before shape inference: \n")
print(value_info)
print("------------------------------------------------------------")
print("After shape inference: \n")
inferred_onnx_model = shape_inference.infer_shapes(onnx_model)
onnx.checker.check_model(onnx_model)
inferred_graph = inferred_onnx_model.graph
inferred_value_info = inferred_graph.value_info
print(inferred_value_info)
onnx.save(inferred_onnx_model,"./new.onnx")
  • 7
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
onnxruntime-gpu-c++是一个用于在GPU上运行模型的C++库,它支持使用ONNX格式的模型进行推理。下面是一个简单的部署步骤: 1. 安装CUDA和cuDNN onnxruntime-gpu-c++需要CUDA和cuDNN来加速模型推理。您需要安装与onnxruntime-gpu-c++版本兼容的CUDA和cuDNN。您可以从NVIDIA官方网站下载并安装这些软件。 2. 安装onnxruntime-gpu-c++ 您可以从onnxruntime-gpu-c++的GitHub仓库中下载源代码,并使用CMake生成库文件。在生成过程中,您需要指定CUDA和cuDNN的路径。 3. 加载模型 使用onnxruntime-gpu-c++加载ONNX格式的模型。您可以使用onnxruntime-cxx库中的API来加载模型并进行推理。以下是一个简单的示例代码: ```cpp #include <iostream> #include <vector> #include <chrono> #include <onnxruntime_cxx_api.h> int main() { Ort::SessionOptions session_options; Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test"); Ort::Session session(env, "model.onnx", session_options); Ort::AllocatorWithDefaultOptions allocator; Ort::Value input_tensor = Ort::Value::CreateTensor<float>(allocator, {1, 3, 224, 224}); float* input_tensor_data = input_tensor.GetTensorMutableData<float>(); // fill input tensor with data ... std::vector<const char*> input_names = {"input"}; std::vector<const char*> output_names = {"output"}; std::vector<int64_t> input_shape = {1, 3, 224, 224}; std::vector<float> output_data(1000); Ort::RunOptions run_options; Ort::TensorSlicer<float> input_tensor_slicer(input_tensor, input_shape); auto start_time = std::chrono::high_resolution_clock::now(); for (auto& slice : input_tensor_slicer) { Ort::Value input_tensor_slice = Ort::Value::CreateTensor<float>(allocator, slice.shape().data(), slice.shape().size(), slice.data(), slice.size()); Ort::Value output_tensor = session.Run(run_options, input_names.data(), &input_tensor_slice, 1, output_names.data(), 1); std::memcpy(output_data.data() + slice.offset(), output_tensor.GetTensorData<float>(), slice.size() * sizeof(float)); } auto end_time = std::chrono::high_resolution_clock::now(); std::cout << "Inference time: " << std::chrono::duration_cast<std::chrono::milliseconds>(end_time - start_time).count() << "ms" << std::endl; // process output data ... } ``` 在这个示例中,我们使用onnxruntime-gpu-c++加载了名为“model.onnx”的模型,并将输入数据填充到名为“input”的张量中。然后,我们运行了推理,并将输出数据存储在名为“output_data”的向量中。最后,我们对输出数据进行了处理。 4. 运行推理 在加载模型和填充输入数据后,您可以使用session.Run()方法运行推理。您需要指定输入和输出张量的名称,并将它们传递给session.Run()方法。 5. 处理输出 session.Run()方法将返回一个或多个输出张量。您可以使用GetTensorData()方法获取输出张量的数据,并对其进行处理。 这些是一个简单的onnxruntime-gpu-c++部署步骤。您可以根据具体情况进行适当的修改。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值