使用Python提供高性能计算服务


前言

python具有丰富的库,并且很容易作为胶水语言很容易与c/c++进行交互集成。

因此为了适应快速变化的业务和兼顾计算效率,在上层采用python作为server提供service,在底层采用c/c++进行计算是一种对于算法开发者非常适宜的方式。

python flask库提供http接口以及相关demo页面,gunicorn提供多核并行能力,底层c++库提供单线程上的计算。

下面通过一个例子说明这种架构。代码地址:python_hps

准备

在实验开始之前,需要安装flask、gunicorn、apach bench tool等工具。

注:所有实验均在linux系统中进行。测试机器为4核虚拟机。

 
 
  1. sudo pip install flask 
  2. sudo pip install gunicorn 
  3. sudo apt-get install apache2-utils 

计算

计算部分模拟真实计算,因此计算量比较大,在我测试的虚拟机上单核单线程跑400ms左右。

c++核心计算部分,随便写的:

 
 
  1. API_DESC int foo(const int val) 
  2.     float result = 0.0f; 
  3.     for(int c=0;c<1000;c++) 
  4.     { 
  5.         for(int i=0;i<val;i++) 
  6.         { 
  7.             result += (i); 
  8.             result += sqrt((float)(i*i)); 
  9.             result += pow((float)(i*i*i),0.1f); 
  10.         } 
  11.     } 
  12.     return (int)result; 

python wrapper,采用ctypes:

 
 
  1. #python wrapper of libfoo 
  2. class FooWrapper: 
  3.     def __init__(self): 
  4.         cur_path = os.path.abspath(os.path.dirname(__file__)) 
  5.         self.module = ctypes.CDLL(os.path.join(cur_path,'./impl/libfoo.so')) 
  6.     def foo(self,val):     
  7.         self.module.foo.argtypes = (ctypes.c_int,) 
  8.         self.module.foo.restype = ctypes.c_int 
  9.         result = self.module.foo(val) 
  10.         return result 

flask http API:

 
 
  1. @app.route('/api/foo',methods=['GET','POST']) 
  2. def handle_api_foo(): 
  3.     #get input 
  4.     val = flask.request.json['val'
  5.     logging.info('[handle_api_foo] val: %d' % (val)) 
  6.     #do calc 
  7.     result = fooWrapper.foo(val) 
  8.     logging.info('[handle_api_foo] result: %d' % (result)) 
  9.     result = json.dumps({'result':result}) 
  10.     return result 

单核服务

首先测试python单核服务,同时也是单线程服务(由于python GIL的存在,python多线程对于计算密集型任务几乎起反作用)。

  • 启动服务

在script目录下执行run_single.sh,即

 
 
  1. #!/bin/sh 
  2. #python 
  3. export PYTHONIOENCODING=utf-8 
  4. #start server 
  5. cd `pwd`/.. 
  6. echo "run single pocess server" 
  7. python server.py 
  8. cd - 
  9. echo "server is started." 
  • 测试服务

另外打开一个终端,执行script目录下的bench.sh,即

 
 
  1. #!/bin/sh 
  2. ab -T 'application/json' -p post.data -n 100 -c 10 http://127.0.0.1:4096/api/foo 
  • 测试结果

CPU运转

ab测试结果

可以看出CPU只用了1个核,负载是2.44 request/second。

多核

  • 启动服务

在script目录下执行run_parallel.sh,即

 
 
  1. #!/bin/sh 
  2. #python 
  3. export PYTHONIOENCODING=utf-8 
  4. #start server 
  5. cd `pwd`/.. 
  6. echo "run parallel pocess server" 
  7. gunicorn -c gun.conf server:app 
  8. cd - 
  9. echo "server is started." 

其中gun.conf是一个python脚本,配置了gunicorn的一些参数,如下:

 
 
  1. import multiprocessing 
  2. bind = '0.0.0.0:4096' 
  3. workers = max(multiprocessing.cpu_count()*2+1,1) 
  4. backlog = 2048 
  5. worker_class = "sync" 
  6. debug = False 
  7. proc_name = 'foo_server' 
  • 测试服务

另外打开一个终端,执行script目录下的bench.sh,即

 
 
  1. #!/bin/sh 
  2. ab -T 'application/json' -p post.data -n 100 -c 10 http://127.0.0.1:4096/api/foo 
  • 测试结果

CPU运转

ab测试结果

可以看出CPU用满了4个核,负载是8.56 request/second。是单核的3.5倍左右,可以任务基本达成多核有效利用的的目的。

总结

使用flask、gunicorn基本可以搭建一个用于调试或者不苛责过多性能的服务,用于算法服务提供非常方便。本文提供该方案的一个简单示例,实际业务中可基于此进行修改完善。



作者:自律所以自由

来源:51CTO

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值