pytorch pth 模型转 onnx模型,并验证结果正确性

pytorch 模型部署很重要的一步是转存pth模型为ONNX,本文记录方法。

转存 onnx

  • 建立自己的pytorch模型,并加载权重
model = create_model(num_classes=2)
model.load_state_dict(load(model_path, map_location='cpu')["model"])
  • 转存onnx文件
dummy_input = torch.randn(1, 3, 256, 256, device='cpu')
torch.onnx._export(model, dummy_input, "faster_rcnn.onnx", verbose=True, opset_version=11)

将模型保存在了当前目录的 faster_rcnn.onnx文件内

验证 onnx 有效性
  • 安装 onnxruntime
pip install onnxruntime
  • 加载onnx模型并测试
import onnxruntime
from onnxruntime.datasets import get_example

def to_numpy(tensor):
    return tensor.detach().cpu().numpy() if tensor.requires_grad else tensor.cpu().numpy()

# 测试数据
dummy_input = torch.randn(1, 3, 256, 256, device='cpu')

example_model = get_example(<absolute_root_to_your_onnx_model_file>)
# netron.start(example_model) 使用 netron python 包可视化网络
sess = onnxruntime.InferenceSession(example_model)

# onnx 网络输出
onnx_out = sess.run(None, {<input_layer_name_of_your_network>: to_numpy(dummy_input)})
print(onnx_out)

model.eval()
with torch.no_grad():
    # pytorch model 网络输出
    torch_out = model(dummy_input)
	print(torch_out)
  • 输出:
onnx_out
[array([[  0.       ,  93.246    , 228.95842  , 256.       ],
       [  0.       ,   2.6370468, 209.39705  , 148.17822  ]],
      dtype=float32), array([1, 1], dtype=int64), array([0.1501071 , 0.07568519], dtype=float32)]

torch_out
[{'boxes': tensor([[  0.0000,  93.2459, 228.9584, 256.0000],
        [  0.0000,   2.6370, 209.3971, 148.1782]]), 'labels': tensor([1, 1]), 'scores': tensor([0.1501, 0.0757])}]

获取自己网络输入层名称
  • 有时对网络不熟悉的情况下不清楚模型输入层的名称,可以使用Netron可视化自己的网络,获取输入层名称,喂入onnx的sess中。

注意 !!!

  • pytorch 模型在转 ONNX 模型的过程中,使用的导出器是一个基于轨迹的导出器,这意味着它执行时需要运行一次模型,然后导出实际参与运算的运算符. 这也意味着, 如果你的模型是动态的,例如,改变一些依赖于输入数据的操作,这时的导出结果是不准确的.同样,一 个轨迹可能只对一个具体的输入尺寸有效 (这是为什么我们在轨迹中需要有明确的输入的原因之一.) 我们建议检查 模型的轨迹,确保被追踪的运算符是合理的. ——— pytorch 文档

  • 也就是说,如果网络模块中存在 if… else… 类似的分支,在生成ONNX模型时会依据所使用的初始数据来选择其中某一个分支,这样所生成的ONNX模型仅会保留这一个分支的结构,在原始pytorch模型中的其他逻辑能力在该模型中不复存在。

参考资料

  • https://pytorch.apachecn.org/docs/0.3/onnx.html
  • https://www.jianshu.com/p/5a0a09fbdeba
### 回答1: 要将PyTorch的.pth模型转换ONNX格式,可以使用以下步骤: 1. 安装ONNX包:在终端中运行`pip install onnx`来安装ONNX包。 2. 加载PyTorch模型:使用PyTorch加载模型并将其转换ONNX格式。例如,可以使用以下代码加载PyTorch模型: ``` import torch import torchvision # 加载PyTorch模型 model = torchvision.models.resnet18(pretrained=True) # 将模型转换为eval模式 model.eval() # 创建一个虚拟输入张量 input_tensor = torch.randn(1, 3, 224, 224) # 导出模型ONNX格式 torch.onnx.export(model, input_tensor, "resnet18.onnx") ``` 在这个例子中,我们加载了一个预训练的ResNet18模型,并将其转换ONNX格式。我们还创建了一个虚拟输入张量,它将用于导出模型。 3. 验证ONNX模型:可以使用ONNX Runtime或其他ONNX兼容的推理引擎来验证导出的ONNX模型。例如,可以使用以下代码验证导出的ResNet18模型: ``` import onnx import onnxruntime # 加载ONNX模型 onnx_model = onnx.load("resnet18.onnx") # 验证模型 onnx.checker.check_model(onnx_model) # 创建一个ONNX Runtime会话 ort_session = onnxruntime.InferenceSession("resnet18.onnx") # 运行模型 ort_inputs = {ort_session.get_inputs()[].name: input_tensor.numpy()} ort_outputs = ort_session.run(None, ort_inputs) # 打印输出 print(ort_outputs) ``` 在这个例子中,我们使用ONNX Runtime创建了一个会话,并使用虚拟输入张量运行了模型。我们还打印了模型的输出。 ### 回答2: PyTorch是流行的深度学习框架之一,而ONNX(Open Neural Network Exchange)是一个开源的跨平台深度学习框架,可以方便地让用户在多个平台上运行模型。在机器学习和深度学习应用中,模型转换和共享非常重要,而pth模型ONNX模型可以更加高效地在多个平台上利用训练好的模型。本文将介绍如何使用PyTorchpth模型转换ONNX模型。 首先,需要安装PyTorchONNX。在安装好这两个框架之后,使用以下代码将pth模型转换ONNX模型: ``` import torch import onnx # 加载pth模型 model = torch.load('model.pth') # 将pth模型转换onnx模型 input_names = ['input'] output_names = ['output'] dynamic_axes = {'input':{0:'batch_size'},'output':{0:'batch_size'}} x = torch.randn(1, 3, 224, 224) torch.onnx.export(model, x, "model.onnx", input_names=input_names, output_names=output_names, dynamic_axes=dynamic_axes) ``` 在此代码片段中,`input_names`和`output_names`分别表示网络的输入和输出节点名称。`dynamic_axes`参数确定哪些轴是变化的,这是非常重要的,因为不同的框架可能需要特定的推理数据格式。在这个例子中,`dynamic_axes`参数将输入和输出数据的第一维指定为“batch_size”,因为第一维是数据样本数量,可能因推断过程而变化。 在代码运行完毕后,可以得到一个ONNX模型,可以将其部署到ONNX支持的设备上进行推理,例如移动设备和边缘计算设备。 需要注意的是,将pth模型转换ONNX模型有一些限制和注意事项: 1. PyTorch支持的操作不一定是ONNX支持的。要将模型成功转换ONNX格式,使用的PyTorch操作必须是ONNX支持的。 2. ONNX不支持大部分运行时计算。因此,如果使用了一些需要计算图中的其他参数的操作(如动态图),则不能将模型成功转换ONNX格式。 3. 一些PyTorch操作(如Dropout)在训练和推断过程中有不同的行为。因此,需要在代码中明确指定模型的模式,以确保在转换和推理过程中得到正确的结果。 综上所述,pth模型ONNX模型可以方便地在多个平台上部署和使用训练好的模型,需要仔细注意输入输出节点、动态轴和框架支持的操作等细节。 ### 回答3: PyTorch是一个非常流行和广泛使用的深度学习框架。在深度学习中,常常需要将训练得到的模型转换为一种可移植的格式,如ONNX。这样可以让我们在不同的框架和设备上使用模型。 将PyTorch模型转换ONNX需要以下步骤。 第一步是安装必要的库和工具包。我们需要安装最新版本的PyTorchONNX。可以在PyTorch的官方网站和ONNX的GitHub页面上找到安装说明。 第二步是准备PyTorch模型。在PyTorch中,我们可以使用torch.save将模型保存为.pth文件。这个文件包含了模型的权重和架构。 第三步是使用torch.onnx.export将模型转换ONNX格式。这个函数需要指定PyTorch模型、输入张量和输出文件的路径。我们还可以使用其他参数来设置转换的选项,如输入和输出名称、数据类型和设备类型等。 第四步是验证转换的结果。我们可以使用ONNX Runtime或其他支持ONNX格式的框架加载模型,输入数据并进行推理。通过比较转换前后的输出,我们可以确认转换正确性。 需要注意的是,PyTorch模型ONNX模型在一些细节上可能存在差异。例如,PyTorch中的一些操作可能没有对应的ONNX实现,或者ONNX中的一些操作可能需要特定的属性和参数。因此,在进行模型转换时,需要了解两种格式的差异,并根据实际需求进行调整。 总之,PyTorch模型转换ONNX格式可以让我们更加方便地在不同的框架和设备上使用模型,是深度学习工作中不可或缺的一部分。
评论 21
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值