python中用 multiprocessing 加速任务处理

背景

面对海量任务需要高效对其进行消费,而任务之间不存在处理结果的相互依赖。

方案1: multiprocessing模块

以下模拟每个任务处理耗时1s,共有50任务的场景。
示例代码如下:

import time
from multiprocessing import Pool

def function_call(task_dict):
    time.sleep(1)  # 模拟真实的处理流程
    print(task_dict)


if __name__ == '__main__':

    test_list = range(50) # 单进程则需要50s, 如果开启5个进程,则大概需要10s
    print("Single process version:")
    start_time = time.time()
    for i in test_list:
        function_call(i)
    end_time = time.time()
    print("Single process version cost time={}s\n".format(end_time-start_time))
    print("multiprocess(below 5 processes) version:")

    p = Pool(5)
    start_time = time.time()
    p.map(function_call, test_list)
    end_time = time.time()
    print("multiprocess(below 5 processes) version cost time={}s\n".format(end_time - start_time))
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值