python多机器并行_Python多任务并行

实现Fast Newman算法,发现跑2000个点的LFR数据集,速度实在是太慢了,从一开始每一轮迭代需要1分多钟,到后面5分钟才能跑一轮。于是想把这算法改成并行,在网上不知道哪抄了并行的代码,运行之后发现每个核心依然还是20-30%的使用率,且并行和串行用时差不多。

辛辛苦苦改了一天,终于发现问题了。

首先实现并行用的是多进程,也就是引入python自带的multiprocessing,

重点在于

from multiprocessing import Pool

而不是

from multiprocessing.dummy import Pool

前者适合cpu密集型任务,后者适合I/O密集型任务。

不知道在哪抄的代码用的是multiprocessing.dummy。。。改了一下午。。。。

另外,图中用的可以让CPU跑满的代码挺棒的,以后测试可以用:

reduce(lambda a, b: math.log(a + b), xrange(10 **5), x)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值