安装onnxruntime 推理加速

1、临时更改源

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple onnxruntime

如果是默认的源位置会很慢,更改以下为好

2、测试

cmd下键入python

 python>>> import onnxruntime
 python>>> onnxruntime.get_device()
 'CPU'
 python>>>  onnxruntime.get_available_providers()
['CPUExecutionProvider']

这样安装仅仅是cpu版本,只支持cpu模式,下面删除后安装gpu版本

pip uninstall onnxruntime

删除后重新安装

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple onnxruntime-gpu

Python 3.7.2 (tags/v3.7.2:9a3ffc0492, Dec 23 2018, 23:09:28) [MSC v.1916 64 bit (AMD64)] on win32
Type “help”, “copyright”, “credits” or “license” for more information.

 import onnxruntime
 onnxruntime.get_device()
'GPU'
 onnxruntime.get_available_providers()
['TensorrtExecutionProvider', 'CUDAExecutionProvider', 'CPUExecutionProvider']

可见除了cpu方式,另外支持了TensorRt 和 CUDA 模式

例子

import onnxruntime
import numpy as np

#device_name = 'GPU' 
device_name = onnxruntime.get_device()

if device_name == 'cpu':
    providers = ['CPUExecutionProvider']
elif device_name == 'GPU':
    providers = ['CUDAExecutionProvider', 'CPUExecutionProvider']
onnx_model = onnxruntime.InferenceSession('模型名称.onnx', providers=providers)
#这里输入数据进行推理
data = .......
onnx_input = {onnx_model.get_inputs()[0].name: data}
outputs = onnx_model.run(None, onnx_input)
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

qianbo_insist

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值