ONNX推理流程


在这里插入图片描述

python版API推理流程

  1. 使用netron工具查看onnx网络结构

    如下图,可以看出此次要使用的网络输入为:

    • 输入名称:input
    • 输入形状:[1, 3, 256, 256]
    • 输入数据类型:float32

    网络的输出为:

    • 输出名称:output
    • 输出形状:[1, 1, 256, 256]
    • 输出数据类型:float32

    在这里插入图片描述

  2. 准备输入数据

    将要进行推理的图像数据的数据类型和形状转换为需要的数据类型和需要的输入形状

    # 1.准备输入数据
    img = cv2.imread("../../0.samples/0.png")  # 读取图像
    img_data = cv2.resize(img, (256, 256))  # 对图像进行大小变换
    img_data = img_data.swapaxes(1, 2).swapaxes(0, 1)  # 将维度为[256, 256, 3]转换为[3, 256, 256]
    img_data = img_data[np.newaxis, :, :, :]  # 对图像进行维度变换,使其满足网络的输入要求
    img_data = np.array(img_data)  # 将图像转换为nparray
    img_data = img_data/255.  # 对图像数据进行归一化
    img_data = img_data.astype(np.float32)  # 转换图像数据类型,使其满足网络的输入要求
    
  3. 创建一个inference实例,把模型传递给inference实例

    # 2.创建一个InferenceSession的实例,并将模型的地址传递给该实例
    sess = onnxruntime.InferenceSession('../../0.onnx/uNet_32.onnx', providers=['CUDAExecutionProvider'])
    
  4. 调用inference实例,获取输入输出名称

    # 3.调用InferenceSession的实例,获取输入输出名称
    input_name = sess.get_inputs()[0].name
    output_name = sess.get_outputs()[0].name
    
  5. 调用InferenceSession实例的run方法进行推理,根据输出名称获取推理结果

    # 4.调用InferenceSession实例的run方法进行推理,根据输出名称获取推理结果
    outputs = sess.run([output_name], {input_name: img_data})
    
  6. 对inference实例输出的结果进行处理,获得所需要的结果

    # 5.推理结果处理
    predict_imgs = np.squeeze(outputs[0])  # 推理结果转换为nparray
    predict_imgs = predict_imgs * 255  # 结果数值范围转换
    predict_imgs = np.clip(predict_imgs, 0, 255)  # 结果数值范围转换
    predict_imgs = cv2.resize(predict_imgs, (1920, 1080))  # 结果图像大小转换
    predict_imgs = predict_imgs.astype('uint8')  # 结果数据类型转换
    
  7. python版API推理流程

    import cv2
    import onnxruntime
    import numpy as np
    
    # 1.准备输入数据
    img = cv2.imread("../../0.samples/0.png")  # 读取图像
    img_data = cv2.resize(img, (256, 256))  # 对图像进行大小变换
    img_data = img_data[np.newaxis, :, :, :]  # 对图像进行维度变换,使其满足网络的输入要求
    img_data = np.array(img_data)  # 将图像转换为nparray
    img_data = img_data/255.  # 对图像数据进行归一化
    img_data = img_data.astype(np.float32)  # 转换图像数据类型,使其满足网络的输入要求
    
    # 2.创建一个InferenceSession的实例,并将模型的地址传递给该实例
    sess = onnxruntime.InferenceSession('../../0.onnx/uNet_32.onnx')
    
    # 3.调用InferenceSession的实例,获取输入输出名称
    input_name = sess.get_inputs()[0].name
    output_name = sess.get_outputs()[0].name
    
    # 4.调用InferenceSession实例的run方法进行推理,根据输出名称获取推理结果
    outputs = sess.run([output_name], {input_name: img_data})
    
    # 5.推理结果处理
    predict_imgs = np.squeeze(outputs[0])  # 推理结果转换为nparray
    predict_imgs = predict_imgs * 255  # 结果数值范围转换
    predict_imgs = np.clip(predict_imgs, 0, 255)  # 结果数值范围转换
    predict_imgs = cv2.resize(predict_imgs, (1920, 1080))  # 结果图像大小转换
    predict_imgs = predict_imgs.astype('uint8')  # 结果数据类型转换
    
    # 查看输出结果
    cv2.imshow("1", predict_imgs)
    cv2.waitKey(0)
    
    
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AoDeLuo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值