Orkhon:高性能机器学习推理框架与服务器运行时

Orkhon:高性能机器学习推理框架与服务器运行时

orkhonOrkhon: ML Inference Framework and Server Runtime项目地址:https://gitcode.com/gh_mirrors/or/orkhon

项目介绍

Orkhon 是一个用 Rust 编写的机器学习推理框架和服务器运行时,旨在高效地运行和使用用 Python 编写的推理代码、冻结模型并处理未见数据。它主要关注于以高性能方式服务模型和处理未见数据,而不是直接使用 Python,从而解决了服务器扩展性问题。

项目技术分析

Orkhon 的核心优势在于其异步 API,这使得它能够在处理大量并发请求时保持高性能。此外,它还支持同步和异步 API,易于嵌入到知名的 Rust 网络框架中,并提供了与 Python 代码交互的 API 契约。Orkhon 还具有高处理吞吐量,例如每秒处理约 4.8361 GiB 的预测数据,3000 个并发请求平均耗时约 4 毫秒。

项目及技术应用场景

Orkhon 适用于需要高性能机器学习推理的场景,特别是在需要处理大量并发请求的服务器环境中。它可以用于各种在线服务,如推荐系统、图像识别、自然语言处理等,提供快速且可靠的模型推理服务。

项目特点

  • 异步 API:支持同步和异步 API,适用于不同场景。
  • 易于嵌入:可以轻松嵌入到现有的 Rust 网络框架中。
  • Python 模块缓存:优化 Python 模块的加载和缓存,提高性能。
  • 高吞吐量:在处理大量数据时表现出色,适合高并发环境。
  • 多模型支持:支持 TensorFlow 和 ONNX 模型,灵活适应不同需求。

安装与使用

您可以通过以下方式将 Orkhon 包含到您的项目中:

[dependencies]
orkhon = "0.2"

示例代码

异步请求 TensorFlow 预测

use orkhon::prelude::*;
use orkhon::tcore::prelude::*;
use orkhon::ttensor::prelude::*;
use rand::*;
use std::path::PathBuf;

let o = Orkhon::new()
    .config(
        OrkhonConfig::new()
            .with_input_fact_shape(InferenceFact::dt_shape(f32::datum_type(), tvec![10, 100])),
    )
    .tensorflow(
        "model_which_will_be_tested",
        PathBuf::from("tests/protobuf/manual_input_infer/my_model.pb"),
    )
    .shareable();

let mut rng = thread_rng();
let vals: Vec<_> = (0..1000).map(|_| rng.gen::<f32>()).collect();
let input = tract_ndarray::arr1(&vals).into_shape((10, 100)).unwrap();

let o = o.get();
let handle = async move {
    let processor = o.tensorflow_request_async(
       "model_which_will_be_tested",
       ORequest::with_body(TFRequest::new().body(input.into())),
    );
    processor.await
};
let resp = block_on(handle).unwrap();

同步请求 ONNX 预测

use orkhon::prelude::*;
use orkhon::tcore::prelude::*;
use orkhon::ttensor::prelude::*;
use rand::*;
use std::path::PathBuf;

let o = Orkhon::new()
    .config(
        OrkhonConfig::new()
            .with_input_fact_shape(InferenceFact::dt_shape(f32::datum_type(), tvec![10, 100])),
    )
    .onnx(
        "model_which_will_be_tested",
        PathBuf::from("tests/protobuf/onnx_model/example.onnx"),
    )
    .build();

let mut rng = thread_rng();
let vals: Vec<_> = (0..1000).map(|_| rng.gen::<f32>()).collect();
let input = tract_ndarray::arr1(&vals

orkhonOrkhon: ML Inference Framework and Server Runtime项目地址:https://gitcode.com/gh_mirrors/or/orkhon

  • 24
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
森林防火应急联动指挥系统是一个集成了北斗定位/GPS、GIS、RS遥感、无线网络通讯、4G网络等技术的现代化智能系统,旨在提高森林火灾的预防和扑救效率。该系统通过实时监控、地图服务、历史数据管理、调度语音等功能,实现了现场指挥调度、语音呼叫通讯、远程监控、现场直播、救火人员生命检测等工作的网络化、智能化、可视化。它能够在火灾发生后迅速组网,确保现场与指挥中心的通信畅通,同时,系统支持快速部署,适应各种极端环境,保障信息的实时传输和历史数据的安全存储。 系统的设计遵循先进性、实用性、标准性、开放性、安全性、可靠性和扩展性原则,确保了技术的领先地位和未来的发展空间。系统架构包括应急终端、无线专网、应用联动应用和服务组件,以及安全审计模块,以确保用户合法性和数据安全性。部署方案灵活,能够根据现场需求快速搭建应急指挥平台,支持高并发视频直播和大容量数据存储。 智能终端设备具备三防等级,能够在恶劣环境下稳定工作,支持北斗+GPS双模定位,提供精确的位置信息。设备搭载的操作系统和处理器能够处理复杂的任务,如高清视频拍摄和数据传输。此外,设备还配备了多种传感器和接口,以适应不同的使用场景。 自适应无线网络是系统的关键组成部分,它基于认知无线电技术,能够根据环境变化动态调整通讯参数,优化通讯效果。网络支持点对点和点对多点的组网模式,具有低功耗、长距离覆盖、强抗干扰能力等特点,易于部署和维护。 系统的售后服务保障包括安装实施服务、系统维护服务、系统完善服务、培训服务等,确保用户能够高效使用系统。提供7*24小时的实时故障响应,以及定期的系统优化和维护,确保系统的稳定运行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

宗廷国Kenyon

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值