onnx 简化 onnxruntime

 目录

简化工具安装:

onnxsim简化 python代码:

onnxsim简化命令:

onnxruntime

工具安装:


简化工具安装:

    pip install onnx-simplifier

onnxsim简化 python代码:

import onnx

onnx_model_name =r'face_landmark_with_attention_z_left.onnx'
try:
    import onnxsim

    onnx_model = onnx.load(onnx_model_name)  # load onnx model
    print('\nStarting to simplify ONNX...')
    onnx_model, check = onnxsim.simplify(onnx_model)
    assert check, 'assert check failed'
except Exception as e:
    print(f'Simplifier failure: {e}')

onnxsim简化命令:

python -m onnxsim face_landmark_1.12_left.onnx  aa_sim.onnx

 控制台有简化的结果

onnxruntime

opencv dnn onnx 性能优化有时能达到16-10倍,但是cpu占用较高

opencv的对平均池化,上采样不支持,可能是onnx版本低,比如11

onnxruntime优化本身能达到10-14倍,cpu占用稍微低一点

工具安装:

onnxruntime-1.1.1

pip install onnxruntime # CPU build

pip install onnxruntime-gpu # GPU build

下载地址,支持32位,是动态库,不是python的

https://www.ctolib.com/article/releases/119310

这个也有x86的

https://github.com/Microsoft/onnxruntime/releases/tag/v1.1.0

c++调用demo:

https://github.com/microsoft/onnxruntime/blob/master/csharp/test/Microsoft.ML.OnnxRuntime.EndToEndTests.Capi/CXX_Api_Sample.cpp

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论
要使用ONNX模型简化操作,需要使用ONNX Runtime的Python API。下面是一个简单的示例代码,演示如何使用ONNX Runtime简化ONNX模型。 ```python import onnx import onnxruntime as ort # 加载ONNX模型 onnx_model = onnx.load('model.onnx') # 创建ONNX Runtime的推理会话 ort_session = ort.InferenceSession('model.onnx') # 获取模型的输入和输出名称 input_name = ort_session.get_inputs()[0].name output_name = ort_session.get_outputs()[0].name # 加载一个输入张量 input_data = np.random.rand(1, 3, 224, 224).astype(np.float32) # 运行推理 output_data = ort_session.run([output_name], {input_name: input_data}) # 打印输出 print(output_data) ``` 在这个示例中,我们使用ONNX Runtime加载了一个ONNX模型,并创建了一个推理会话。我们还获取了输入和输出张量的名称,并加载了一个输入张量。最后,我们运行了推理,并打印了输出。 要进行模型简化操作,我们需要使用ONNX Runtime的优化器。下面是一个简单的示例代码,演示如何使用ONNX Runtime的优化器简化ONNX模型。 ```python import onnx import onnxruntime as ort # 加载ONNX模型 onnx_model = onnx.load('model.onnx') # 创建ONNX Runtime的优化器 optimized_model = ort.ORTTrainerModel.optimize(onnx_model) # 保存简化后的模型 onnx.save(optimized_model, 'optimized_model.onnx') ``` 在这个示例中,我们使用ONNX Runtime的ORTTrainerModel.optimize()方法简化ONNX模型,并将简化后的模型保存到了本地。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI算法网奇

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值