onnx模型部署 python_onnxruntime模型部署流程

本文介绍了如何将PyTorch模型转换为ONNX格式,并通过Python的ONNXRuntime进行部署。首先,展示了使用torch2onnx函数将训练好的模型转换为ONNX,包括支持动态形状的方法。接着,安装onnxruntime库,提供了GPU和CPU版本的选择。最后,详细解释了如何使用onnxruntime加载模型和执行推理操作。
摘要由CSDN通过智能技术生成

一、将训练好的模型转换格式为ONNX格式

例如pytorch模型转换:

def torch2onnx(model, save_path):

"""

:param model:

:param save_path: XXX/XXX.onnx

:return:

"""

model.eval()

data = torch.rand(1, 3, 224, 224)

input_names = ["input"]

output_names = ["out"]

torch.onnx._export(model, data, save_path, export_params=True, opset_version=11, input_names=input_names, output_names=output_names)

print("torch2onnx finish.")

支持动态形状的输入和输出:

def torch2onnx_dynamic(model, save_path):

"""

:param model:

:param save_path: XXX/XXX.onnx

:return:

"""

model.eval()

data = torch.rand(1, 3, 224, 224)

input_names = ["input"] # ncnn需要

output_names = ["out"]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值