ONNXRuntimer Server

OnnxRuxtime 是开放神经网络交换格式的运行库。 ONNX是一种通用的神经网络描述格式,可以从其它神经网络框架格式,如pytorch, tensorflow, caffe等转换到onnx格式进行统一表示。

OnnxRuntime, 顾名思义,就是用来运行onnx格式神经网络模型的一种跨平台运行库,支持从windows到linux, 从pc到手机甚至物联网设备IOT的一种运行时框架,c++编写,支持各种硬件加速,可以方便移植到几乎所有平台。

以下为了简化起见,简称OnnxRuntime 为 ORT.

 

OnnxRuntime server是ORT自带的 推理服务器软件。 我们通常推理时是在本地进行的,ORT server可以把算力要求最高的部分部署到远程服务器上,通过http或grpc协议进行远程调用,本地只需要进行预处理或后处理即可。

 

 

官方页面: onnxruntime/ONNX_Runtime_Server_Usage.md at master · microsoft/onnxruntime (github.com)

 

 

流程:

 

ORT server :     启用ORT server + onnx 模型

本地程序及数据预处理   -》 http/gprc 请求 =》 ORT server => Return 本地程序=》 本地后处理

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值