pytorch模型转onnx模型的方法详解

很多时候有pytorch模型转onnx模型的必要,比如用tensorRT加速的时候,下面这篇文章主要给大家介绍了关于pytorch模型转onnx模型的相关资料,文中通过实例代码介绍的非常详细,需要的朋友可以参考下

学习目标

  • 掌握pytorch模型转换到onnx模型
  • 顺利运行onnx模型
  • 比对onnx模型和pytorch模型的输出结果

学习大纲

  • pytorch模型转换onnx模型
  • 运行onnx模型
  • onnx模型输出与pytorch模型比对

学习内容

前提条件:需要安装onnx 和 onnxruntime,可以通过 pip install onnx 和 pip install onnxruntime 进行安装

1 . pytorch 转 onnx

pytorch 转 onnx 只需要一个函数 torch.onnx.export

1

torch.onnx.export(model, args, path, export_params, verbose, input_names, output_names, do_constant_folding, dynamic_axes, opset_version)

参数说明:

  • model——需要导出的pytorch模型
  • args——模型的输入参数,满足输入层的shape正确即可。
  • path——输出的onnx模型的位置。例如‘yolov5.onnx’。
  • export_params——输出模型是否可训练。default=True,表示导出trained model,否则untrained。
  • verbose——是否打印模型转换信息。default=False。
  • input_names——输入节点名称。default=None。
  • output_names——输出节点名称。default=None。
  • do_constant_folding——是否使用常量折叠(不了解),默认即可。default=True。
  • dynamic_axes——模型的输入输出有时是可变的,如Rnn,或者输出图像的batch可变,可通过该参数设置。如输入层的shape为(b,3,h,w),batch,height,width是可变的,但是chancel是固定三通道。
    格式如下 :
    1)仅list(int) dynamic_axes={‘input’:[0,2,3],‘output’:[0,1]}
    2)仅dict<int, string> dynamic_axes={‘input’:{0:‘batch’,2:‘height’,3:‘width’},‘output’:{0:‘batch’,1:‘c’}}
    3)mixed dynamic_axes={‘input’:{0:‘batch’,2:‘height’,3:‘width’},‘output’:[0,1]}
  • opset_version——opset的版本,低版本不支持upsample等操作。

1

2

3

4

5

6

7

8

9

10

11

12

13

import torch

import torch.nn

import onnx

model = torch.load('best.pt')

model.eval()

input_names = ['input']

output_names = ['output']

x = torch.randn(1,3,32,32,requires_grad=True)

torch.onnx.export(model, x, 'best.onnx', input_names=input_names, output_names=output_names, verbose='True')

2 . 运行onnx模型

检查onnx模型,并使用onnxruntime运行。

1

2

3

4

5

6

7

8

9

10

11

12

import onnx

import onnxruntime as ort

model = onnx.load('best.onnx')

onnx.checker.check_model(model)

session = ort.InferenceSession('best.onnx')

x=np.random.randn(1,3,32,32).astype(np.float32)  # 注意输入type一定要np.float32!!!!!

# x= torch.randn(batch_size,chancel,h,w)

outputs = session.run(None,input = { 'input' : x })

参数说明:

  • output_names: default=None
    用来指定输出哪些,以及顺序
    若为None,则按序输出所有的output,即返回[output_0,output_1]
    若为[‘output_1’,‘output_0’],则返回[output_1,output_0]
    若为[‘output_0’],则仅返回[output_0:tensor]
  • input:dict
    可以通过session.get_inputs().name获得名称
    其中key值要求与torch.onnx.export中设定的一致

3.onnx模型输出与pytorch模型比对

1

2

import numpy as np

np.testing.assert_allclose(torch_result[0].detach().numpu(),onnx_result,rtol=0.0001)

如前所述,经验表明,ONNX 模型的运行效率明显优于原 PyTorch 模型,这似乎是源于 ONNX 模型生成过程中的优化,这也导致了模型的生成过程比较耗时,但整体效率依旧可观。

此外,根据对 ONNX 模型和 PyTorch 模型运行结果的统计分析(误差的均值和标准差),可以看出 ONNX 模型的运行结果误差很小、基本可靠。

内容参考:https://zhuanlan.zhihu.com/p/422290231

总结

到此这篇关于pytorch模型转onnx模型的文章就介绍到这了

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值