使用开源AI-Serving部署推理PMML和ONNX模型

AI-Serving是一款开源推理系统,支持PMML和ONNX格式的机器学习与深度学习模型部署。它提供HTTP和gRPC接口,便于在不同环境集成。本文介绍了如何使用AI-Serving部署PMML和ONNX模型,强调了这两种标准格式在模型部署中的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

AI-Serving介绍

AI-Serving是一款开源的机器学习和深度学习模型部署推理(inference)系统,支持标准的PMML和ONNX格式,同时提供HTTP(REST API)和gRPC两种接口,方便在不同的生产环境中使用。

部署PMML模型

预测模型标记语言PMML(Predictive Model Markup Language)是一套成熟的表示经典机器学习模型的标准。AI-Serving通过PMML4S提供对PMML模型的高效预测服务,详情参考《Inferencing Iris XGBoost PMML Model using AI-Serving》。

关于PMML详情,参考文章《

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值