使用Python提供高性能计算服务

开发 前端
python具有丰富的库,并且很容易作为胶水语言很容易与c/c++进行交互集成。因此为了适应快速变化的业务和兼顾计算效率,在上层采用python作为server提供service,在底层采用c/c++进行计算是一种对于算法开发者非常适宜的方式。

 [[192217]]

前言

python具有丰富的库,并且很容易作为胶水语言很容易与c/c++进行交互集成。

因此为了适应快速变化的业务和兼顾计算效率,在上层采用python作为server提供service,在底层采用c/c++进行计算是一种对于算法开发者非常适宜的方式。

python flask库提供http接口以及相关demo页面,gunicorn提供多核并行能力,底层c++库提供单线程上的计算。

下面通过一个例子说明这种架构。代码地址:python_hps

准备

在实验开始之前,需要安装flask、gunicorn、apach bench tool等工具。

注:所有实验均在linux系统中进行。测试机器为4核虚拟机。

  1. sudo pip install flask 
  2. sudo pip install gunicorn 
  3. sudo apt-get install apache2-utils 

计算

计算部分模拟真实计算,因此计算量比较大,在我测试的虚拟机上单核单线程跑400ms左右。

c++核心计算部分,随便写的:

  1. API_DESC int foo(const int val) 
  2.     float result = 0.0f; 
  3.     for(int c=0;c<1000;c++) 
  4.     { 
  5.         for(int i=0;i<val;i++) 
  6.         { 
  7.             result += (i); 
  8.             result += sqrt((float)(i*i)); 
  9.             result += pow((float)(i*i*i),0.1f); 
  10.         } 
  11.     } 
  12.     return (int)result; 

python wrapper,采用ctypes:

  1. #python wrapper of libfoo 
  2. class FooWrapper: 
  3.     def __init__(self): 
  4.         cur_path = os.path.abspath(os.path.dirname(__file__)) 
  5.         self.module = ctypes.CDLL(os.path.join(cur_path,'./impl/libfoo.so')) 
  6.     def foo(self,val):     
  7.         self.module.foo.argtypes = (ctypes.c_int,) 
  8.         self.module.foo.restype = ctypes.c_int 
  9.         result = self.module.foo(val) 
  10.         return result 

flask http API:

  1. @app.route('/api/foo',methods=['GET','POST']) 
  2. def handle_api_foo(): 
  3.     #get input 
  4.     val = flask.request.json['val'
  5.     logging.info('[handle_api_foo] val: %d' % (val)) 
  6.     #do calc 
  7.     result = fooWrapper.foo(val) 
  8.     logging.info('[handle_api_foo] result: %d' % (result)) 
  9.     result = json.dumps({'result':result}) 
  10.     return result 

单核服务

首先测试python单核服务,同时也是单线程服务(由于python GIL的存在,python多线程对于计算密集型任务几乎起反作用)。

  • 启动服务

在script目录下执行run_single.sh,即

  1. #!/bin/sh 
  2. #python 
  3. export PYTHONIOENCODING=utf-8 
  4. #start server 
  5. cd `pwd`/.. 
  6. echo "run single pocess server" 
  7. python server.py 
  8. cd - 
  9. echo "server is started." 
  • 测试服务

另外打开一个终端,执行script目录下的bench.sh,即

  1. #!/bin/sh 
  2. ab -T 'application/json' -p post.data -n 100 -c 10 http://127.0.0.1:4096/api/foo 
  • 测试结果

CPU运转

ab测试结果

可以看出CPU只用了1个核,负载是2.44 request/second。

多核

  • 启动服务

在script目录下执行run_parallel.sh,即

  1. #!/bin/sh 
  2. #python 
  3. export PYTHONIOENCODING=utf-8 
  4. #start server 
  5. cd `pwd`/.. 
  6. echo "run parallel pocess server" 
  7. gunicorn -c gun.conf server:app 
  8. cd - 
  9. echo "server is started." 

其中gun.conf是一个python脚本,配置了gunicorn的一些参数,如下:

  1. import multiprocessing 
  2. bind = '0.0.0.0:4096' 
  3. workers = max(multiprocessing.cpu_count()*2+1,1) 
  4. backlog = 2048 
  5. worker_class = "sync" 
  6. debug = False 
  7. proc_name = 'foo_server' 
  • 测试服务

另外打开一个终端,执行script目录下的bench.sh,即

  1. #!/bin/sh 
  2. ab -T 'application/json' -p post.data -n 100 -c 10 http://127.0.0.1:4096/api/foo 
  • 测试结果

CPU运转

ab测试结果

可以看出CPU用满了4个核,负载是8.56 request/second。是单核的3.5倍左右,可以任务基本达成多核有效利用的的目的。

总结

使用flask、gunicorn基本可以搭建一个用于调试或者不苛责过多性能的服务,用于算法服务提供非常方便。本文提供该方案的一个简单示例,实际业务中可基于此进行修改完善。

责任编辑:武晓燕 来源: hongbomin
相关推荐

2023-05-11 10:58:36

2012-05-04 10:21:52

亚马逊弹性计算云EC2高性能计算

2022-09-14 22:58:58

Push 推荐Java 开发vivo

2009-11-17 14:05:57

微软高性能计算服务器

2009-01-07 01:34:10

SunHPC高性能计算

2011-12-09 13:52:59

高性能计算云计算数据中心

2019-07-18 12:37:20

高性能计算云原生公共云

2024-04-25 10:09:02

2019-03-01 11:03:22

Lustre高性能计算

2017-12-20 14:59:44

服务器

2018-07-20 10:02:13

华为

2021-01-29 18:30:27

戴尔

2011-05-18 11:02:55

2011-03-11 09:51:47

Java NIO

2023-01-11 15:17:01

gRPC.NET 7

2022-01-29 14:09:45

编程语言PythonTaichi

2010-05-25 10:08:41

虚拟化高性能计算

2011-11-18 21:24:10

CAPSNECDevDeck

2009-11-02 13:33:39

高性能计算
点赞
收藏

51CTO技术栈公众号