python后端和AI模型创建api服务

这是比较简单的模式

先通过flask创建一个api服务

还没怎么写过后端api的可以借鉴这个
python flask api基础的生产级别的需要的知识

编写AI模型功能

编写一个文件夹,在里面编写功能

在路由的函数里面调用AI模型功能

启动并发功能

gunicorn启动

bug

后多个子进程会启动,每一个子进程的ai模型占了显存,但是没有并发响应。
分析:在同一个GPU里面启动多个ai模型实例,由于gpu context 的原因。导致只有一个进程能响应,其他不行,(期待更近一步的分析)

解决:

1模型在一个gpu里面进程并发的问题(后面解决)
2在多个GPU里面启动隔离开来
在gunicorn里面启动进程的时候添加启动钩子,根据启动进程的pid获取到空闲的 gpu id,然后设置不可选取状态。并且在关闭进程的时候,把gpu id的状态设置为空闲。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值