ONNX-keras模型使用

 

 

一、 ONNXRUNTIME加速效果

https://github.com/onnx/keras-onnx

  1,创建虚拟环境

             conda create -n keras-onnx python=3.6

   2,激活环境

             conda activate keras-onnx

  3,安装需要的依赖包

      pip install tensorflow-gpu

      pip install keras

      pip install onnxmltools

安装onnxruntime需要注意cpu和版本

cpu版本:

     pip install onnxruntime

gpu版本:

     pip install onnxruntime-gpu

        这个版本是1.0,要求cuda是10.0,cudnn是7.6

  4, 进行测试

        a,首先将h5文件转换为onnx文件

        b,   获取ONNX的输入和输出

        c,使用onnx和onnxruntime进行前向加速运算

import onnxmltools
from keras.models import load_model
import cv2
import numpy as np
import onnxruntime
import argparse

parser = argparse.ArgumentParser()
parser.add_argument("--keras_model", type=str, default='./Inception_v3_classification_dataset08_c_c_201982845.h5')
parser.add_argument("--onnx_model", type=str, default='onnx_classification.model')
args = parser.parse_args()


input_model = args.keras_model
output_model = args.onnx_model

# 得到网络模型结构和参数
keras_net = load_model(input_model)

# 将keras模型转换为onnx模型
onnx_net = onnxmltools.convert_keras(keras_net)
# 将onnx模型文件保存下来
onnxmltools.utils.save_model(onnx_net, output_model)
content = onnx_net.SerializeToString()
# 创建session
sess = onnxruntime.InferenceSession(content)

# 获得模型的输入或输出名
for i in sess.get_inputs():
    print(i.name)
    print(i.shape)

for i in sess.get_outputs():
    print(i.name)
    print(i.shape)

# 构造输入图像
img = np.zeros((1,139,139,3),dtype=np.float32)

# 使用模型默认输出作为输出结果,input_6是通过打印sess.get_inputs()的name得到
pred_onnx = sess.run(None,{'input_6':img})
print(pred_onnx)

得到的打印内容如下:

input_6
['N', 139, 139, 3]
dense_3/Softmax:0
['N', 2]
[array([[0.9215646 , 0.07843538]], dtype=float32)]

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值