获取onnx模型输入输出结构信息的3种方式:ONNX、onnxruntime、netron

《博主简介》

小伙伴们好,我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。
更多学习资源,可关注公-仲-hao:【阿旭算法与机器学习】,共同学习交流~
👍感谢小伙伴们点赞、关注!

《------往期经典推荐------》

一、AI应用软件开发实战专栏【链接】

项目名称项目名称
1.【人脸识别与管理系统开发2.【车牌识别与自动收费管理系统开发
3.【手势识别系统开发4.【人脸面部活体检测系统开发
5.【图片风格快速迁移软件开发6.【人脸表表情识别系统
7.【YOLOv8多目标识别与自动标注软件开发8.【基于YOLOv8深度学习的行人跌倒检测系统
9.【基于YOLOv8深度学习的PCB板缺陷检测系统10.【基于YOLOv8深度学习的生活垃圾分类目标检测系统
11.【基于YOLOv8深度学习的安全帽目标检测系统12.【基于YOLOv8深度学习的120种犬类检测与识别系统
13.【基于YOLOv8深度学习的路面坑洞检测系统14.【基于YOLOv8深度学习的火焰烟雾检测系统
15.【基于YOLOv8深度学习的钢材表面缺陷检测系统16.【基于YOLOv8深度学习的舰船目标分类检测系统
17.【基于YOLOv8深度学习的西红柿成熟度检测系统18.【基于YOLOv8深度学习的血细胞检测与计数系统
19.【基于YOLOv8深度学习的吸烟/抽烟行为检测系统20.【基于YOLOv8深度学习的水稻害虫检测与识别系统
21.【基于YOLOv8深度学习的高精度车辆行人检测与计数系统22.【基于YOLOv8深度学习的路面标志线检测与识别系统
23.【基于YOLOv8深度学习的智能小麦害虫检测识别系统24.【基于YOLOv8深度学习的智能玉米害虫检测识别系统
25.【基于YOLOv8深度学习的200种鸟类智能检测与识别系统26.【基于YOLOv8深度学习的45种交通标志智能检测与识别系统
27.【基于YOLOv8深度学习的人脸面部表情识别系统28.【基于YOLOv8深度学习的苹果叶片病害智能诊断系统
29.【基于YOLOv8深度学习的智能肺炎诊断系统30.【基于YOLOv8深度学习的葡萄簇目标检测系统
31.【基于YOLOv8深度学习的100种中草药智能识别系统32.【基于YOLOv8深度学习的102种花卉智能识别系统
33.【基于YOLOv8深度学习的100种蝴蝶智能识别系统34.【基于YOLOv8深度学习的水稻叶片病害智能诊断系统
35.【基于YOLOv8与ByteTrack的车辆行人多目标检测与追踪系统36.【基于YOLOv8深度学习的智能草莓病害检测与分割系统
37.【基于YOLOv8深度学习的复杂场景下船舶目标检测系统38.【基于YOLOv8深度学习的农作物幼苗与杂草检测系统
39.【基于YOLOv8深度学习的智能道路裂缝检测与分析系统40.【基于YOLOv8深度学习的葡萄病害智能诊断与防治系统
41.【基于YOLOv8深度学习的遥感地理空间物体检测系统42.【基于YOLOv8深度学习的无人机视角地面物体检测系统
43.【基于YOLOv8深度学习的木薯病害智能诊断与防治系统44.【基于YOLOv8深度学习的野外火焰烟雾检测系统
45.【基于YOLOv8深度学习的脑肿瘤智能检测系统46.【基于YOLOv8深度学习的玉米叶片病害智能诊断与防治系统
47.【基于YOLOv8深度学习的橙子病害智能诊断与防治系统48.【车辆检测追踪与流量计数系统
49.【行人检测追踪与双向流量计数系统50.【基于YOLOv8深度学习的反光衣检测与预警系统
51.【危险区域人员闯入检测与报警系统52.【高压输电线绝缘子缺陷智能检测系统

二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】
五、YOLOv8改进专栏【链接】持续更新中~~
六、YOLO性能对比专栏【链接】,持续更新中~

《------正文------》

引言

在使用onnx模型进行模型部署时,我们需要查看onnx模型的输入与输出结构,然后才能进行数据的预处理与后处理过程,从而帮助我们进行模型的部署。本文介绍3种查看onnx模型输入与输出结构的方式,以yolov8n.onnx为例。

方式1:使用netron

打开网页:https://netron.app,然后打开需要查看的onnx模型,此处打开yolov8n.onnx模型。
在这里插入图片描述
在这里插入图片描述
通过这种方式,我们不仅可以看到模型的输入与输出结构,而且可以清楚的查看模型的详细网络结构。通过右下角我们可以看到,模型的输入为【1,3,640,640】,输出为【1,84,8400】
在这里插入图片描述
解释说明:
【1,3,640,640】表示,batch为1,输入图片为3640640;
【1,84,8400】表示,batch为1,输出向量为84【代表x, y, w, h,cls类别数80】,检测框数目为8400个。

方式2:使用onnx

我们使用onnx库加载模型,并查看模型的输入输出结构。代码如下:

import onnx
# 加载ONNX模型
model = onnx.load('yolov8n.onnx')
# 获取并打印OpSet导入信息,从中可以找到OpSet版本
for imp in model.opset_import:
   print(f"Domain: {imp.domain}, Version: {imp.version}")
# 验证模型是否有效
onnx.checker.check_model(model)
# 获取并打印模型的输入信息
print("Input(s) of the model:")
for input in model.graph.input:
    print(f"Name: {input.name}, Type: {input.type}")
# 获取并打印模型的输出信息
print("\nOutput(s) of the model:")
for output in model.graph.output:
    print(f"Name: {output.name}, Type: {output.type}")

输出结果如下:

Domain: , Version: 17
Input(s) of the model:
Name: images, Type: tensor_type {
  elem_type: 1
  shape {
    dim {
      dim_value: 1
    }
    dim {
      dim_value: 3
    }
    dim {
      dim_value: 640
    }
    dim {
      dim_value: 640
    }
  }
}


Output(s) of the model:
Name: output0, Type: tensor_type {
  elem_type: 1
  shape {
    dim {
      dim_value: 1
    }
    dim {
      dim_value: 84
    }
    dim {
      dim_value: 8400
    }
  }
}

可以看到输入为【1,3,640,640】,输出为【1,84,8400】。

方式3:使用onnxruntime

我们使用onnxruntime库加载模型,并查看模型的输入输出结构。代码如下:

import onnxruntime as ort
providers = ["CPUExecutionProvider"]
session_options = ort.SessionOptions()
session_options.graph_optimization_level = ort.GraphOptimizationLevel.ORT_ENABLE_ALL
# 使用ONNX模型创建推理会话,并指定执行提供者
session = ort.InferenceSession('yolov8n.onnx',
                              session_options=session_options,
                              providers=providers)

# 获取模型的输入信息
inputs_info = session.get_inputs()
print("Input(s) of the model:")
for input in inputs_info:
    print(f"Name: {input.name}, Shape: {input.shape}, Type: {input.type}")

# 获取模型的输出信息
outputs_info = session.get_outputs()
print("\nOutput(s) of the model:")
for output in outputs_info:
    print(f"Name: {output.name}, Shape: {output.shape}, Type: {output.type}")

打印信息如下:

Input(s) of the model:
Name: images, Shape: [1, 3, 640, 640], Type: tensor(float)

Output(s) of the model:
Name: output0, Shape: [1, 84, 8400], Type: tensor(float)

关注文末名片G-Z-H:【阿旭算法与机器学习】,发送【开源】可获取更多学习资源

在这里插入图片描述

好了,这篇文章就介绍到这里,喜欢的小伙伴感谢给点个赞和关注,更多精彩内容持续更新~~

<think>好的,我现在需要帮助用户解决如何从Lobe导出ONNX模型,并用Python代码加载和调用它。首先,我得回忆一下Lobe的基本操作流程。Lobe是一个用户友好的机器学习工具,允许用户通过图形界面训练模型,然后导出为不同格式。用户提到导出ONNX模型,所以我需要确认Lobe是否支持导出ONNX。根据之前的了解,Lobe支持导出为TensorFlow、PyTorch等格式,但不确定是否直接支持ONNX。可能需要先导出为PyTorch模型,再转换为ONNX格式。 接下来,用户想用Python加载和调用ONNX模型。这里需要考虑使用ONNX运行时库(onnxruntime)。首先,用户需要安装onnxruntime,可能还需要其他依赖库,比如numpy来处理输入数据。 可能的步骤是:1. 在Lobe中训练模型,导出为PyTorch模型。2. 使用PyTorch的导出功能将模型转换为ONNX格式。3. 在Python中使用onnxruntime加载ONNX模型并进行推理。 需要详细说明每个步骤的具体操作,比如在导出ONNX时,需要指定输入形状,处理张量等。同时,要确保用户正确安装所需的库,例如torch、onnxonnxruntime。 另外,用户可能遇到的常见问题包括导出时的输入维度不匹配,或者运行时版本不兼容。需要提醒用户注意这些点,并提供检查模型输入输出形状的方法,例如使用Netron工具可视化ONNX模型结构。 最后,生成相关问题时要围绕模型导出、格式转换、运行时部署等方面,帮助用户扩展了解相关知识点。</think>### 使用Lobe导出ONNX模型并通过Python调用 #### 步骤1:从Lobe导出PyTorch模型 1. 在Lobe完成模型训练后,选择导出为`PyTorch`格式,生成包含`model.pt`和`labels.txt`的文件夹[^1]。 2. 确保本地已安装`torch`库: ```bash pip install torch ``` #### 步骤2:将PyTorch模型转换为ONNX格式 ```python import torch from torch.onnx import export # 加载PyTorch模型 model = torch.load("model.pt") model.eval() # 定义输入张量示例(根据Lobe模型的输入维度调整) dummy_input = torch.randn(1, 3, 224, 224) # 假设输入为224x224 RGB图像 # 导出ONNX模型 export( model, dummy_input, "model.onnx", input_names=["input"], output_names=["output"], dynamic_axes={"input": {0: "batch_size"}, "output": {0: "batch_size"}}, ) ``` #### 步骤3:使用Python加载ONNX模型 ```python import onnxruntime import numpy as np # 创建推理会话 session = onnxruntime.InferenceSession("model.onnx") # 准备输入数据(需与训练时预处理一致) input_data = np.random.rand(1, 3, 224, 224).astype(np.float32) # 示例数据 # 执行推理 outputs = session.run( output_names=["output"], input_feed={"input": input_data} ) # 解析输出结果 with open("labels.txt") as f: labels = [line.strip() for line in f.readlines()] prediction = labels[np.argmax(outputs[0])] print(f"预测结果: {prediction}") ``` #### 关键注意事项 1. 输入数据预处理必须与Lobe训练时完全一致(归一化方式、尺寸调整等) 2. 使用Netron工具可视化ONNX模型结构,验证输入/输出层名称和维度 3. 若遇到版本兼容问题,可尝试固定版本: ```bash pip install onnx==1.13.1 onnxruntime==1.15.1 ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿_旭

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值