python线程池(threadpool)模块使用

最近碰到个问题,需要telnet登录上千台机器去取主机名;其中有用户名密码交互部分,有需要延迟的部分,大概一次登录一次到处理完要10s,1000台机器串行处理就需要1000×10s,差不多三个小时,这是很难受的事情;

之前用thread的start_new_thread方法也可以实现,但是线程数量不好控制,没找到相关的控制线程数量的锁;


找了下关于Python的线程池,找到threadpool这么一个模块,可以满足我的需求,见:

http://chrisarndt.de/projects/threadpool/

我下的是版本1.2.2:

http://chrisarndt.de/projects/threadpool/download/threadpool-1.2.2.tar.bz2


放到当前目录或者python模块库都行,用法很简单,见:

[python]  view plain  copy
  1. Basic usage::  
  2.   
  3.     >>> pool = ThreadPool(poolsize)  
  4.     >>> requests = makeRequests(some_callable, list_of_args, callback)  
  5.     >>> [pool.putRequest(req) for req in requests]  
  6.     >>> pool.wait()  



第一行定义了一个线程池,表示最多可以创建poolsize这么多线程;

第二行是调用makeRequests创建了要开启多线程的函数,以及函数相关参数和回调函数,其中回调函数可以不写,default是无,也就是说makeRequests只需要2个参数就可以运行;

第三行用法比较奇怪,是将所有要运行多线程的请求扔进线程池,[pool.putRequest(req) for req in requests]等同于:

[python]  view plain  copy
  1. for req in requests:  
  2.     pool.putRequest(req)  

第四行是等待所有的线程完成工作后退出;



下面看下我的代码,使用线程池前后代码对比,不使用线程池:

[python]  view plain  copy
  1. import telnetlib  
  2. import time  
  3.   
  4. #执行比较耗时的函数,需要开启多线程  
  5. def myTelnet(L):  
  6.     tn = telnetlib.Telnet(L[0])  
  7.     time.sleep(2)  
  8.     ...  
  9.     idx = tn.expect(["Username:""login:"], timeout=5)  
  10.     ...  
  11.     time.sleep(3)  
  12.     x = tn.read_very_eager()  
  13.     tn.close()  
  14.     ...  
  15.     return  
  16.   
  17. #模拟255个ip,需要逐个登录的函数  
  18. def myIpPool(ipPrefix):  
  19.     List=[]  
  20.     for i in range(1255):  
  21.         List.append("%s.%d" % (ipPrefix, i))  
  22.     return List  
  23.   
  24. #串行运行telnet登录  
  25. L=myIpPool("200.200.200")  
  26. for i in range(len(L)):  
  27.     myTelnet(L[i])  

如果myTelnet每次执行要10s,那么255次myTelnet就需要2550s,大概是40分钟;


用多线程的情况:

[python]  view plain  copy
  1. import telnetlib  
  2. import time  
  3. import threadpool  
  4.   
  5. #执行比较耗时的函数,需要开启多线程  
  6. def myTelnet(L):  
  7.     tn = telnetlib.Telnet(L[0])  
  8.     time.sleep(2)  
  9.     ...  
  10.     idx = tn.expect(["Username:""login:"], timeout=5)  
  11.     ...  
  12.     time.sleep(3)  
  13.     x = tn.read_very_eager()  
  14.     tn.close()  
  15.     ...  
  16.     return  
  17.   
  18. #模拟255个ip,需要逐个登录的函数  
  19. def myIpPool(ipPrefix):  
  20.     List=[]  
  21.     for i in range(1255):  
  22.         List.append("%s.%d" % (ipPrefix, i))  
  23.     return List  
  24.   
  25.       
  26. #使用多线程执行telnet函数  
  27. pool = threadpool.ThreadPool(10)  
  28. requests = threadpool.makeRequests(myTelnet, L)  
  29. [pool.putRequest(req) for req in requests]  
  30. pool.wait()  
  31. output.close()  

开始是个线程,理论上应该快10倍,实际可能没这么快,我将myTelnet函数改成只的sleep 10秒,什么也不干,测了下执行完需要260s,几乎是10倍的速度;改成如下:

[python]  view plain  copy
  1. pool = threadpool.ThreadPool(30)  

90s执行完毕,说明线程池还是很有用的东西。



自己实现:

最近在做一些文本处理方面的事情,考虑到程序利用并发性可以提高执行效率(不纠结特殊反例),于是入围的Idea如使用多进程或多线程达到期望的目标,对于进程或线程的创建是有代价的,那么我们是否可以实现一个线程池来达到已创建的线程反复使用从而使代价降低到最小呢?
当然可以,要想创建一个线程池,那么必须得有个容器来模拟“池”,在Python中,队列这样的数据结构就可以帮我们解决“池”这个问题,然而随之引来的 多线程之间数据处理同步问题,好在Python中有个Queue模块帮我们解决了这一棘手的问题,那么我们就可以实现一个线程池的雏形了。

Python代码   收藏代码
  1. # !/usr/bin/env python  
  2. # -*- coding:utf-8 -*-  
  3.   
  4. import Queue  
  5. import threading  
  6. import time  
  7.   
  8. class WorkManager(object):  
  9.     def __init__(self, work_num=1000,thread_num=2):  
  10.         self.work_queue = Queue.Queue()  
  11.         self.threads = []  
  12.         self.__init_work_queue(work_num)  
  13.         self.__init_thread_pool(thread_num)  
  14.   
  15.     """ 
  16.         初始化线程 
  17.     """  
  18.     def __init_thread_pool(self,thread_num):  
  19.         for i in range(thread_num):  
  20.             self.threads.append(Work(self.work_queue))  
  21.   
  22.     """ 
  23.         初始化工作队列 
  24.     """  
  25.     def __init_work_queue(self, jobs_num):  
  26.         for i in range(jobs_num):  
  27.             self.add_job(do_job, i)  
  28.   
  29.     """ 
  30.         添加一项工作入队 
  31.     """  
  32.     def add_job(self, func, *args):  
  33.         self.work_queue.put((func, list(args)))#任务入队,Queue内部实现了同步机制  
  34.   
  35.     """ 
  36.         等待所有线程运行完毕 
  37.     """     
  38.     def wait_allcomplete(self):  
  39.         for item in self.threads:  
  40.             if item.isAlive():item.join()  
  41.   
  42. class Work(threading.Thread):  
  43.     def __init__(self, work_queue):  
  44.         threading.Thread.__init__(self)  
  45.         self.work_queue = work_queue  
  46.         self.start()  
  47.   
  48.     def run(self):  
  49.         #死循环,从而让创建的线程在一定条件下关闭退出  
  50.         while True:  
  51.             try:  
  52.                 do, args = self.work_queue.get(block=False)#任务异步出队,Queue内部实现了同步机制  
  53.                 do(args)  
  54.                 self.work_queue.task_done()#通知系统任务完成  
  55.             except:  
  56.                 break  
  57.   
  58. #具体要做的任务  
  59. def do_job(args):  
  60.     time.sleep(0.1)#模拟处理时间  
  61.     print threading.current_thread(), list(args)  
  62.   
  63. if __name__ == '__main__':  
  64.     start = time.time()  
  65.     work_manager =  WorkManager(1000010)#或者work_manager =  WorkManager(10000, 20)  
  66.     work_manager.wait_allcomplete()  
  67.     end = time.time()  
  68.     print "cost all time: %s" % (end-start)  

 2次开启不同的线程数运行结果如下:

Python代码   收藏代码
  1. #work_manager =  WorkManager(10000, 10)  
  2. cost all time: 100.641790867(单位:秒)  
  3. #work_manager =  WorkManager(10000, 20)  
  4. cost all time:50.5233478546(单位:秒)  

 上面实现了线程池的雏形,展现了基本原理,当然要想成为通用的API需要做很多的工作,希望本文能够起到抛砖引玉的效果。




threadpool例子:



  1 #!/usr/bin/env python 
  2 #coding=gbk
  3 import threadpool
  4 import time,random
  5 
  6 def hello(str):
  7     time.sleep(2)
  8     s = "world"
  9     return str, s
 10 
 11 def print_result(request, result):
 12     print "the result is %s %r, and  %s" % (request.requestID, result[0],result[1])
 13 
 14 if __name__ == '__main__':
 15    data = [random.randint(1,10) for i in range(20)]
 16    print data
 17    pool = threadpool.ThreadPool(5)
 18    requests = threadpool.makeRequests(hello, [1,], print_result)
 19    #requests = threadpool.makeRequests(hello, data, print_result)
 20    [pool.putRequest(req) for req in requests]
 21    pool.wait()





 #!/usr/bin/env python 
  2 #coding=gbk
  3 import threadpool
  4 import time,random
  5 
  6 def hello(str,st):
  7     time.sleep(2)
  8     s = "world"
  9     return str, st, s
 10 
 11 def print_result(request, result):
 12     print "the result is %s %r, and  %s, %s" % (request.requestID, result[0],result[1]    ,result[2])
 13 
 14 if __name__ == '__main__':
 15    #data = [random.randint(1,10) for i in range(20)] 
 16    #print data
 17    var1 = [1,2]
 18    var2 = [2,4]
 19    func_p = [(var1,None),(var2,None)]
 20    pool = threadpool.ThreadPool(5)
 21    requests = threadpool.makeRequests(hello, func_p, print_result)
 22    #requests = threadpool.makeRequests(hello, data, print_result)
 23    [pool.putRequest(req) for req in requests]
 24    pool.wait()


  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值