Django作为基本的Web框架,Celery用来处理异步任务,两者搭建分析服务器部署TensorFlow模型。(数据服务器通过POST请求与分析服务器进行任务发布和结果接收,这里不是重点。)在这里主要记录一下解决的两个问题:
1.我在utils.py中写好了TensorFlow的模型预测代码,我每次调用执行utils.py这个代码的时候,我想在不同的卡上执行。
出发点是为了充分利用celery处理异步任务的效率,因为每次模型推理的时候模型参数都需要加载到GPU中,如果不可以通过制定任务使用的GPU来合理分配资源,GPU肯定会爆显存。
解决办法是利用celery的任务队列特性,通过开启多个任务worker,然后在开启的时候制定使用的GPU,再对celery中的启动参数【-c】(也就是concurrency,表示最大并行子进程数目)进行合理的配置,就可以做到既不会爆显存,又可以让服务器上的GPU都利用起来。
CUDA_VISIBLE_DEVICES=0 nohup python manage.py celery worker -E -l info -n analyze --maxtasksperchild 100 -c 1 -Q analyze_task >analyze0.log 2>&1 &
CUDA_VISIBLE_DEVICES=1 nohup python manage.py celery worker -E -l info -n analyze --maxtasksperchild 100 -c 1 -Q analyze_task >analyze1.log 2>&1 &
CUDA_VISIBLE_DEVICES=2 nohup python manage.py celery work