Python中多进程进行数据处理

在做大量数据的处理时,经常会遇到速度慢的问题,这时候可以使用多进程来进行加速。python中的multiprocessing提供了跨平台的多进程模块,这里使用其中的pool(进程池)来尝试。

from multiprocessing import Pool
 
def run(data):
    # do something
    return data

processor = 8
res = []
p = Pool(processor)
for i in range(processor):
    res.append(p.apply_async(run, args=(data)))

p.close()
p.join()
output = []
for i in res: # 将子进程的处理结果重组
    output.append(i)
print(output)

Pool由于会复制整个父进程的资源,速度偏慢。实践中可以进一步选用process模块,有机会再补充。

 

参考:

https://blog.csdn.net/bryan__/article/details/78786648

https://www.liaoxuefeng.com/wiki/0014316089557264a6b348958f449949df42a6d3a2e542c000/001431927781401bb47ccf187b24c3b955157bb12c5882d000

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值