4.4 获取onnx每个节点的输出结果

前言

获取onnx每个节点的结果,进行输出显示、保存

Code

import os
import onnx
import onnx.helper as helper
import onnxruntime
from collections import OrderedDict
import  numpy as np

def get_onnx_node_out(onnx_file, save_onnx):
    model = onnx.load(onnx_file)
    out_names=[]
    for i, node in enumerate(model.graph.node):
        out_names.append(node.output[0])
    for out_name in out_names:
        intermediate_layer_value_info = helper.ValueInfoProto()
        intermediate_layer_value_info.name = out_name
        model.graph.output.append(intermediate_layer_value_info)
    onnx.save(model, save_onnx)

def onnxruntime_infer(onnx_path, input_data, output_name="output"):
 
    session = onnxruntime.InferenceSession(onnx_path, providers=['CPUExecutionProvider'])
    input_name = session.get_inputs()[0].name
    outputs = [x.name for x in session.get_outputs()]
    print("onnx input_name:", input_name)
    print("onnx outputs:", outputs)
    ort_outs = session.run(outputs, {input_name: input_data})
    ort_outs = OrderedDict(zip(outputs, ort_outs))
 
    # For debug
    for key in ort_outs:
        val = ort_outs[key]
        file = "./onnx_output/"+ key.split("/")[-1] +".npy"
        np.save(file, val, allow_pickle=True, fix_imports=True)
     
if __name__ == '__main__':

    base_path = "./"
    onnx_file = os.path.join(base_path,"example4.onnx")
    save_onnx = os.path.join(base_path,"example4_out.onnx")
    get_onnx_node_out(onnx_file, save_onnx)

    path = "./10.npy"  # 
    input_data = np.load(path)
    print(f"input_data shape:{input_data.shape}")

    onnxruntime_infer(save_onnx, input_data)   

总结

  • 相关代码简单运用
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

nsq_ai

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值