python 伪多线程_既然python的多线程是"伪多线程",那么多线程访问共享资源的时候,还需要线程锁吗...

最近处理的大多数任务都是基于python的多线程实现的,然而使用python逃避不开的一个话题就是,python的GIL(的全称是 Global Interpreter Lock)全局解释器锁是单线程的,那么是不是意味着python的多线程也是串行的?多线程对共享资源的使用就不需要锁(线程锁)了?

笔者一开始也是这么误解:

既然python解释器的锁是单线程的===》那么经过解释器生成的线程,是轮训执行的(相当于单线程)===》然后推断出线程访问共享资源的时候不需要加线程锁?

既然不需要加线程锁,那么python为什么会存在线程锁?这明显是一个矛盾的问题,以上推论纯属YY,上述结论是不正确的。

其实上述推断从第二步就开始错误了,其实某些时候,看似合理的推断,是完成不成立的。

先做个小demo看一下效果,下面代码很简单,线程方法内部轮训设置全局变量递增,然后其多个线程调用该方法,线程方法在操作全局变量的时候暂时不适用线程锁

#! /usr/bin/python#-*- coding: utf-8 -*-

from threading importThread,Lock

g_var=0

lock=Lock()defthread_tasks():for i in range(100000):globalg_var

#lock.acquire()

g_var= g_var+1#lock.release()if __name__ == "__main__":

t_list=[]for i in range(100):

t= Thread(target=thread_tasks, args=[])

t_list.append(t)for t int_list:

t.setDaemon(True)

t.start()for t int_list:

t.join()print('thread execute finish')print('global variable g_var is' + str(g_var))

理论上出来的结果,最终全局变量的结果就是线程数*每个线程循环的次数,这里线程数是100,线程方法内部循环100000次,最终的结果“理论上”是10,000,000。

能动手的绝对不动嘴,实际执行下来发现并不是这样的,甚至会出现各种意料之外的答案,原因何在?

380271-20201119090552737-1029777655.png这篇《也许你对 Python GIL 锁的理解是 错的》文章提到这个问题,理论上也比较简单

380271-20201119091111537-1234344028.png

然后再加上线程锁,看看效果(需要注意的是:开启线程锁之后,不应该无脑开启太多的线程,因为这个线程锁会导致线程之间严重争用问题)

380271-20201119091923522-1291079318.png

关于python的多线程无法对CPU使用充分的问题,笔者是12核的机器,在跑上述代码的时候,CPU使用情况如下,鉴于对python了解的不够深入,不知道怎么解释这种“python单位时间内只能使用同一个CPU”的问题

380271-20201119093218724-1923496999.png

380271-20201119093304188-1702442712.png

关于python多线程使用,根据笔者的测试总结,也有一些思考

1,如果是远程任务,就好比上述代码thread_tasks中执行的是一个远程服务(比如远程数据库访问什么的),完全可以达到“并发”的效果,因为本地CPU仅负责启动线程,线程在远程服务端一样可以做到并发效果,比如多线程压测远程访问数据库的时候,一样可以打爆远程数据库服务器的CPU。

2,如果本地任务,且本地任务属于非CPU密集型任务,比如IO操作,或者网络读写等等,多线程一样可以达到并发效果,因为瓶颈并不在CPU使用上(整体效率不是增加CPU的使用就可以提升的)

3,如果本地任务,且本地任务属于CPU密集型任务,此时python的多线程是无法发挥其功效的(多进程不香么,此时可以考虑多进程并发)。

关于python的多进程并发模型,也非常简单,相比线程锁,进程之间的通讯,一个内置的queue就完事了,如下是模拟多进程并法实现上述计算。

from multiprocessing importProcess, Pool, Queuefrom threading importThread, Lockimporttimeimportprogressbarimportmath

g_var=0

lock=Lock()defthread_tasks(q):for _ in range(100000):

q.put(1)defconsumer_q(q):globalg_var

p=progressbar.ProgressBar()

p.start()whileTrue:

var=q.get(True)

g_var= g_var +vartry:

p.update(int((g_var/ (100 * 100000 - 1)) * 100))exceptException as ex:passp.finish()if __name__ == "__main__":

q=Queue()

p_list=[]

p_consumer= Process(target=consumer_q, args=[q, ])

p_consumer.start()for i in range(50):

p= Process(target=thread_tasks, args=[q, ])

p_list.append(p)for p inp_list:

p.start()for p inp_list:

p.join()

time.sleep(1)print('\n sub_process execute finish')

p_consumer.terminate()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值