Python 多核CPU并行计算(二) Lock加锁

4 篇文章 0 订阅
  • 多个进程对同一个共享内存的数据只进行访问是安全的。然而如果要对数据进行处理就说不准了。多个进程有可能存在竞争,从而造成数据计算错误。
  • 解决方案是对核心的操作进行加锁,保证一个进程在处理数据的时候,该数据不会被其他进程所修改。

Demo code

# Lock  在共享内存中应用

import multiprocessing as mp


# 是应用pool方法 进行数据并行测试,这里🔓不加锁看看效果

# 解释一下数据并行:同样的函数,对不同数据进行操作
# 对应的是任务并行:同样的数据或者不同的数据,要不同的函数进行处理。

def job_no_lock(a, num):
    for i in range(10):
        a.value += num  # a是共享内存的变量
        print(a.value)
    # return a


# 加锁
def job_with_lock(l, a, num):
    l.acquire()

    for i in range(10):
        a.value += num  # a是共享内存的变量
        print(a.value)

    l.release()
    # return a


# 多进程
if __name__ == '__main__':

    v = mp.Value('i', 0)  # 共享内存变量 num = 0
    L = mp.Lock()

	# 不加锁的进程
    p1 = mp.Process(target=job_no_lock, args=(v, 1))  # l, a  +1
    p2 = mp.Process(target=job_no_lock, args=(v, 3))  # l, a  +3
	
	# 加锁的进程
    p3 = mp.Process(target=job_with_lock, args=(L, v, 2))  # +2
    p4 = mp.Process(target=job_with_lock, args=(L, v, 4))  # +4

    p1.start()
    p1.join()

    p2.start()
    p2.join()

    #
    p3.start()
    p3.join()

    p4.start()
    p4.join()

* 这里还有一个问题,我在Pycharm里面运行的时候,发现两个进程并没有同时执行 有待解决

  • 注意,加锁的情况下,程序有时会等效成串行执行!
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值