进程池 python_Python进程池multiprocessing.Pool的用法

Python

Python开发

Python语言

Python进程池multiprocessing.Pool的用法

一、multiprocessing模块

multiprocessing模块提供了一个Process类来代表一个进程对象,multiprocessing模块像线程一样管理进程,这个是multiprocessing的核心,它与threading很相似,对多核CPU的利用率会比threading好的多

看一下Process类的构造方法:

__init__(self, group=None, target=None, name=None, args=(), kwargs={})

参数说明:

group:进程所属组(基本不用)

target:表示调用对象

args:表示调用对象的位置参数元组

name:别名

kwargs:表示调用对象的字典

示例:

importmultiprocessingdef do(n): #参数n由args=(1,)传入

name = multiprocessing.current_process().name #获取当前进程的名字

print(name, 'starting')print("worker", n)return

if __name__ == '__main__':

numList=[]for i in range(5):

p= multiprocessing.Process(target=do, args=(i,)) #(i,)中加入","表示元祖

numList.append(p)print(numList)

p.start()#用start()方法启动进程,执行do()方法

p.join() #等待子进程结束以后再继续往下运行,通常用于进程间的同步

print("Process end.")

运行结果:

[]

Process-1starting

worker 0

Process end.

[, ]

Process-2starting

worker1Process end.

[, , ]

Process-3starting

worker2Process end.

[, , , ]

Process-4starting

worker3Process end.

[, , , , ]

Process-5starting

worker4Process end.

通过打印numList可以看出当前进程结束后,再开始下一个进程

注意:

在Windows上要想使用进程模块,就必须把有关进程的代码写在当前.py文件的if __name__ == ‘__main__’ :语句的下面,才能正常使用Windows下的进程模块。Unix/Linux下则不需要

二、Pool类

Pool类可以提供指定数量的进程供用户调用,当有新的请求提交到Pool中时,如果池还没有满,就会创建一个新的进程来执行请求。如果池满,请求就会告知先等待,直到池中有进程结束,才会创建新的进程来执行这些请求

下面介绍一下multiprocessing 模块下的Pool类下的几个方法:

1.apply()

函数原型:apply(func[, args=()[, kwds={}]])

该函数用于传递不定参数,同python中的apply函数一致,主进程会被阻塞直到函数执行结束(不建议使用,并且3.x以后不再出现)

2.apply_async

函数原型:apply_async(func[, args=()[, kwds={}[, callback=None]]])

与apply用法一致,但它是非阻塞的且支持结果返回后进行回调

3.map()

函数原型:map(func, iterable[, chunksize=None])

Pool类中的map方法,与内置的map函数用法行为基本一致,它会使进程阻塞直到结果返回

注意:虽然第二个参数是一个迭代器,但在实际使用中,必须在整个队列都就绪后,程序才会运行子进程

4.map_async()

函数原型:map_async(func, iterable[, chunksize[, callback]])

与map用法一致,但是它是非阻塞的

5.close()

关闭进程池(pool),使其不再接受新的任务

6.terminal()

结束工作进程,不再处理未处理的任务

7.join()

主进程阻塞等待子进程的退出, join方法要在close或terminate之后使用

示例1--使用map()函数

importtimefrom multiprocessing importPooldefrun(fn):#fn: 函数参数是数据列表的一个元素

time.sleep(1)print(fn *fn)if __name__ == "__main__":

testFL= [1, 2, 3, 4, 5, 6]print('shunxu:') #顺序执行(也就是串行执行,单进程)

s =time.time()for fn intestFL:

run(fn)

t1=time.time()print("顺序执行时间:", int(t1 -s))print('concurrent:') #创建多个进程,并行执行

pool = Pool(3) #创建拥有3个进程数量的进程池

#testFL:要处理的数据列表,run:处理testFL列表中数据的函数

pool.map(run, testFL)

pool.close()#关闭进程池,不再接受新的进程

pool.join() #主进程阻塞等待子进程的退出

t2 =time.time()print("并行执行时间:", int(t2 - t1))

运行结果:

1、map函数中testFL为可迭代对象--列表

2、当创建3个进程时,会一次打印出3个结果“1,4,9”,当当创建2个进程时,会一次打印出2个结果“1,4”,以此类推,当创建多余6个进程时,会一次打印出所有结果

3、如果使用Pool(),不传入参数,可以创建一个动态控制大小的进程池

从结果可以看出,并发执行的时间明显比顺序执行要快很多,但是进程是要耗资源的,所以平时工作中,进程数也不能开太大。 对Pool对象调用join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close(),让其不再接受新的Process了

示例2--使用map()_async函数

print('concurrent:') #创建多个进程,并行执行

pool = Pool(3) #创建拥有3个进程数量的进程池

#testFL:要处理的数据列表,run:处理testFL列表中数据的函数

pool.map_async(run, testFL)

pool.close() #关闭进程池,不再接受新的进程

pool.join() #主进程阻塞等待子进程的退出

t2 =time.time()print("并行执行时间:", int(t2 - t1))

运行结果:

从结果可以看出,map_async()和map()用时相同。目前还没有看出两者的区别,后面知道后再完善

示例3--使用apply()函数

print('concurrent:') #创建多个进程,并行执行

pool = Pool(3) #创建拥有3个进程数量的进程池

#testFL:要处理的数据列表,run:处理testFL列表中数据的函数

for fn intestFL:

pool.apply(run, (fn,))

pool.close()#关闭进程池,不再接受新的进程

pool.join() #主进程阻塞等待子进程的退出

t2 =time.time()print("并行执行时间:", int(t2 - t1))

运行结果:

可见,使用apply()方法,并行执行和顺序执行用时相同,经过试验,进程数目增大也不会减少并行执行的时间

原因:以阻塞的形式产生进程任务,生成1个任务进程并等它执行完出池,第2个进程才会进池,主进程一直阻塞等待,每次只执行1个进程任务

示例4--使用apply_async()函数

print('concurrent:') #创建多个进程,并行执行

pool = Pool(3) #创建拥有3个进程数量的进程池

#testFL:要处理的数据列表,run:处理testFL列表中数据的函数

for fn intestFL:pool.apply_async(run, (fn,))

pool.close()#关闭进程池,不再接受新的进程

pool.join() #主进程阻塞等待子进程的退出

t2 =time.time()print("并行执行时间:", int(t2 - t1))

运行结果:

可见,使用apply_async()方法,并行执行时间与使用map()、map_async()方法相同

注意:

map_async()和map()方法,第2个参数可以是列表也可以是元祖,如下图:

而使用apply()和apply_async()方法时,第2个参数只能传入元祖,传入列表进程不会被执行,如下图:

三、apply_async()方法callback参数的用法

示例:

from multiprocessing importPoolimporttimedeffun_01(i):

time.sleep(2)print('start_time:', time.ctime())return i + 100

deffun_02(arg):print('end_time:', arg, time.ctime())if __name__ == '__main__':

pool= Pool(3)for i in range(4):

pool.apply_async(func=fun_01, args=(i,), callback=fun_02) #fun_02的入参为fun_01的返回值

#pool.apply_async(func=fun_01, args=(i,))

pool.close()

pool.join()print('done')

运行结果:

start_time: Thu Nov 14 16:31:41 2019end_time:100 Thu Nov 14 16:31:41 2019start_time: Thu Nov14 16:31:41 2019end_time:101 Thu Nov 14 16:31:41 2019start_time: Thu Nov14 16:31:41 2019end_time:102 Thu Nov 14 16:31:41 2019start_time: Thu Nov14 16:31:43 2019end_time:103 Thu Nov 14 16:31:43 2019done

map_async()方法callback参数的用法与apply_async()相同

四、使用进程池并关注结果

importmultiprocessingimporttimedeffunc(msg):print('hello :', msg, time.ctime())

time.sleep(2)print('end', time.ctime())return 'done' +msgif __name__ == '__main__':

pool= multiprocessing.Pool(2)

result=[]for i in range(3):

msg= 'hello %s' %i

result.append(pool.apply_async(func=func, args=(msg,)))

pool.close()

pool.join()for res inresult:print('***:', res.get()) #get()函数得出每个返回结果的值

print('All end--')

运行结果:

五、多进程执行多个函数

使用apply_async()或者apply()方法,可以实现多进程执行多个方法

示例:

importmultiprocessingimporttimeimportosdefLee():print('nRun task Lee--%s******ppid:%s' % (os.getpid(), os.getppid()), '~~~~', time.ctime())

start=time.time()

time.sleep(5)

end=time.time()print('Task Lee,runs %0.2f seconds.' % (end - start), '~~~~', time.ctime())defMarlon():print("nRun task Marlon-%s******ppid:%s" % (os.getpid(), os.getppid()), '~~~~', time.ctime())

start=time.time()

time.sleep(10)

end=time.time()print('Task Marlon runs %0.2f seconds.' % (end - start), '~~~~', time.ctime())defAllen():print("nRun task Allen-%s******ppid:%s" % (os.getpid(), os.getppid()), '~~~~', time.ctime())

start=time.time()

time.sleep(15)

end=time.time()print('Task Allen runs %0.2f seconds.' % (end - start), '~~~~', time.ctime())defFrank():print("nRun task Frank-%s******ppid:%s" % (os.getpid(), os.getppid()), '~~~~', time.ctime())

start=time.time()

time.sleep(20)

end=time.time()print('Task Frank runs %0.2f seconds.' % (end - start), '~~~~', time.ctime())if __name__ == '__main__':

func_list=[Lee, Marlon, Allen, Frank]print('parent process id %s' %os.getpid())

pool= multiprocessing.Pool(4)for func infunc_list:

pool.apply_async(func)print('Waiting for all subprocesses done...')

pool.close()

pool.join()print('All subprocesses done.')

运行结果:

parent process id 84172Waitingforall subprocesses done...

Run task Lee--84868******ppid:84172 ~~~~ Thu Nov 14 17:44:14 2019Run task Marlon-84252******ppid:84172 ~~~~ Thu Nov 14 17:44:14 2019Run task Allen-85344******ppid:84172 ~~~~ Thu Nov 14 17:44:14 2019Run task Frank-85116******ppid:84172 ~~~~ Thu Nov 14 17:44:14 2019Task Lee,runs5.00 seconds. ~~~~ Thu Nov 14 17:44:19 2019Task Marlon runs10.00 seconds. ~~~~ Thu Nov 14 17:44:24 2019Task Allen runs15.00 seconds. ~~~~ Thu Nov 14 17:44:29 2019Task Frank runs20.00 seconds. ~~~~ Thu Nov 14 17:44:34 2019All subprocesses done.

六、其他

1、获取当前计算机的CPU数量

内容来源于网络,如有侵权请联系客服删除

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Pythonmultiprocessing.Pool模块和multiprocessing.dummy.Pool模块都是用于创建进程和线程的工具。 进程(multiprocessing.Pool)是一组维护在进程中的工作者,它们可以并行地执行任务。该模块是基于multiprocessing模块实现的,它通过创建多个进程来并行执行任务。 下面是一个创建进程的示例: ``` python import multiprocessing def worker(process_num): print("Process %d is working" % process_num) if __name__ == '__main__': pool = multiprocessing.Pool(processes=4) for i in range(5): pool.apply_async(worker, args=(i,)) pool.close() pool.join() ``` 上面的示例中,我们创建了一个包含4个进程进程,并向进程中提交了5个任务,每个任务调用worker函数并传递一个进程编号作为参数。我们使用apply_async方法向进程中提交任务,并使用close和join方法管理进程。 线程(multiprocessing.dummy.Pool)是一组维护在线程中的工作者,它们可以并行地执行任务。该模块是基于threading模块实现的,它通过创建多个线程来并行执行任务。 下面是一个创建线程的示例: ``` python from multiprocessing.dummy import Pool import time def worker(thread_num): print("Thread %d is working" % thread_num) time.sleep(1) if __name__ == '__main__': pool = Pool(4) for i in range(5): pool.apply_async(worker, args=(i,)) pool.close() pool.join() ``` 上面的示例中,我们创建了一个包含4个线程的线程,并向线程中提交了5个任务,每个任务调用worker函数并传递一个线程编号作为参数。我们使用apply_async方法向线程中提交任务,并使用close和join方法管理线程。 需要注意的是,线程进程用法基本相同,但是由于线程在Python中不能真正地并行执行,因此线程的性能可能比进程差。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值