python高性能服务_使用Python提供高性能计算服务

本文介绍了如何使用Python的Flask框架配合Gunicorn进行多核服务部署,同时底层通过C++进行高性能计算,展示了如何利用ctypes调用C++库并优化服务性能。实验表明,这种方式有效提升了服务吞吐量,适合算法服务开发。
摘要由CSDN通过智能技术生成

201706244524_3056.jpg

前言

python具有丰富的库,并且很容易作为胶水语言很容易与c/c++进行交互集成。

因此为了适应快速变化的业务和兼顾计算效率,在上层采用python作为server提供service,在底层采用c/c++进行计算是一种对于算法开发者非常适宜的方式。

python flask库提供http接口以及相关demo页面,gunicorn提供多核并行能力,底层c++库提供单线程上的计算。

下面通过一个例子说明这种架构。代码地址:python_hps

准备

在实验开始之前,需要安装flask、gunicorn、apach bench tool等工具。

注:所有实验均在linux系统中进行。测试机器为4核虚拟机。 sudo pip install flask sudo pip install gunicorn sudo apt-get install apache2-utils

计算

计算部分模拟真实计算,因此计算量比较大,在我测试的虚拟机上单核单线程跑400ms左右。

c++核心计算部分,随便写的: API_DESC int foo(const int val) {     float result = 0.0f;     for(int c=0;c<1000;c++)     {         for(int i=0;i

python wrapper,采用ctypes: #python wrapper of libfoo class FooWrapper:     def __init__(self):         cur_path = os.path.abspath(os.path.dirname(__file__))         self.module = ctypes.CDLL(os.path.join(cur_path,'./impl/libfoo.so'))     def foo(self,val):             self.module.foo.argtypes = (ctypes.c_int,)         self.module.foo.restype = ctypes.c_int         result = self.module.foo(val)         return result

flask http API: @app.route('/api/foo',methods=['GET','POST']) def handle_api_foo():     #get input     val = flask.request.json['val']     logging.info('[handle_api_foo] val: %d' % (val))     #do calc     result = fooWrapper.foo(val)     logging.info('[handle_api_foo] result: %d' % (result))     result = json.dumps({'result':result})     return result

单核服务

首先测试python单核服务,同时也是单线程服务(由于python GIL的存在,python多线程对于计算密集型任务几乎起反作用)。 启动服务

在script目录下执行run_single.sh,即 #!/bin/sh #python export PYTHONIOENCODING=utf-8 #start server cd `pwd`/.. echo "run single pocess server" python server.py cd - echo "server is started."  测试服务

另外打开一个终端,执行script目录下的bench.sh,即 #!/bin/sh ab -T 'application/json' -p post.data -n 100 -c 10 http://127.0.0.1:4096/api/foo  测试结果

CPU运转

201706241162_3007.jpg

ab测试结果

201706242463_4513.jpg

可以看出CPU只用了1个核,负载是2.44 request/second。

多核 启动服务

在script目录下执行run_parallel.sh,即 #!/bin/sh #python export PYTHONIOENCODING=utf-8 #start server cd `pwd`/.. echo "run parallel pocess server" gunicorn -c gun.conf server:app cd - echo "server is started."

其中gun.conf是一个python脚本,配置了gunicorn的一些参数,如下: import multiprocessing bind = '0.0.0.0:4096' workers = max(multiprocessing.cpu_count()*2+1,1) backlog = 2048 worker_class = "sync" debug = False proc_name = 'foo_server'  测试服务

另外打开一个终端,执行script目录下的bench.sh,即 #!/bin/sh ab -T 'application/json' -p post.data -n 100 -c 10 http://127.0.0.1:4096/api/foo  测试结果

CPU运转

20170624477_3039.jpg

ab测试结果

2017062482_2159.jpg

可以看出CPU用满了4个核,负载是8.56 request/second。是单核的3.5倍左右,可以任务基本达成多核有效利用的的目的。

总结

使用flask、gunicorn基本可以搭建一个用于调试或者不苛责过多性能的服务,用于算法服务提供非常方便。本文提供该方案的一个简单示例,实际业务中可基于此进行修改完善。

点赞 0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值