python模型部署到服务器_使用基于python的flask框架在服务器端部署机器学习模型pmml格式文件...

安装anaconda环境

访问https://www.anaconda.com/products/individual

拉到底部,下载并安装相应版本的anaconda

命令行输入conda -V,查看是否安装成功

开发

安装flask、pypmml

命令行输入

pip install flask

pip install pypmml

新建server.py并写入

from flask import Flask, jsonify, request

import json

from pypmml import Model

app = Flask(__name__)

@app.route('/predict', methods=['POST'])

def predict():

input_json = request.get_data(as_text=True) #调用服务器时输入的json字符串

dict_json = json.loads(input_json)

model = Model.load('lr_model.pmml')#加载模型文件

result = model.predict(dict_json)

return jsonify({'probability(0)':result['probability(0)'],'probability(1)':result['probability(1)']})

if __name__ == '__main__':

app.run()

将pmml格式的模型文件放在同一目录

执行server.py

命令行输入

%run server.py

测试接口

使用postman请求http://127.0.0.1/predict ,注意是post请求,需携带模型需要的参数,发送即可看到结果返回

进程管理

可以使用gunicorn、pm2等进行进程管理

pm2 start main.py -x --interpreter python

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【资源说明】 基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip基于Flask+jQuery前后端分离部署pytorch模型案例源码.zip 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载使用,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 欢迎下载,沟通交流,互相学习,共同进步!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值