导出onnx模型(2):torch.onnx.export 单输入

将模型的输入直接传输到torch.onnx.export()函数中即可

import torch
import torch.nn as nn


# 定义一个简单的神经网络模型
class SimpleModel(nn.Module):
    def __init__(self):
        super(SimpleModel, self).__init__()
        self.fc = nn.Linear(10, 1)  # 一个全连接层,输入大小为10,输出大小为1

    def forward(self, x):
        x = self.fc(x)
        return x


# 实例化模型
model = SimpleModel()

# 创建单个输入张量
input_data = torch.randn(1, 10)

# 调用 torch.onnx.export函数
torch.onnx.export(model,
                  input_data,
                  "model_temp.onnx",
                  input_names=["input"])
  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在使用 `torch.onnx.export` 导出 ONNX 模型时,可以通过使用 `dynamic_axes` 参数来支持网络多输入。 `dynamic_axes` 是一个字典,其中键是输入张量的名称,值是一个元组,指定每个维度是否可以变化(True)或者是否是固定的(False)。 下面是一个例子: ```python import torch import onnx # 定义模型 class MyModel(torch.nn.Module): def forward(self, x, y): return x + y model = MyModel() # 导出模型 x = torch.randn(1, 3) y = torch.randn(1, 3) input_names = ['x', 'y'] output_names = ['output'] dynamic_axes = {'x': {0: 'batch_size'}, 'y': {0: 'batch_size'}, 'output': {0: 'batch_size'}} onnx_filename = 'mymodel.onnx' torch.onnx.export(model, (x, y), onnx_filename, input_names=input_names, output_names=output_names, dynamic_axes=dynamic_axes) # 加载模型 onnx_model = onnx.load(onnx_filename) onnx.checker.check_model(onnx_model) # 获取模型输入和输出信息 input_infos = onnx_model.graph.input output_infos = onnx_model.graph.output print("Input Info:") for input_info in input_infos: print(input_info) print("Output Info:") for output_info in output_infos: print(output_info) ``` 在上面的例子中,我们使用了 `dynamic_axes` 参数来指定输入张量 x 和 y 的第一个维度是可以变化的。这意味着我们可以在运行模型时,使用不同的 batch size 来进行预测。 在导出模型后,我们可以通过加载模型以及获取模型输入和输出信息来验证模型是否正确导出

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值