python GIL 全局解释器锁详解

Python多线程另一个很重要的话题——GIL(Global Interpreter Lock,即全局解释器锁)鲜有人知,甚至连很多Python老司机都觉得GIL就是一个谜

一、一个不解之谜


耳听为虚,眼见为实。不妨看一个例子感受下GIL为什么会让人不明所以

下面这段很简单的cpu-bound代码:

def CountDown(n):
    while n > 0:
        n -= 1


现在,假设一个很大的数字n = 100000000,试试单线程的情况下执行CountDown(n),使用8核的MacBook上执行耗时为5.4s

这时,想要用多线程来加速,比如下面这几行操作:

from threading import Thread

n = 100000000

t1 = Thread(target=CountDown, args=[n // 2])
t2 = Thread(target=CountDown, args=[n // 2])
t1.start()
t2.start()
t1.join()
t2.join()


在同一台机器上运行,结果发现这不仅没有得到速度的提升,反而让运行变慢,总共花了9.6s

决定使用四个线程再试一次,结果发现运行时间还是9.8s,和2个线程的结果几乎一样

这是怎么回事呢?难道是这是一台假的8核MacBook?提出了下面两个猜想:

第一个怀疑:MacBook机器出问题了吗?

这不得不说是一个合理的猜想。因此找了一个单核CPU的台式机跑了一下上面的实验。发现在单核CPU电脑上,单线程运行需要11s时间,2 个线程运行也是11s时间
虽然不像第一台机器那样多线程反而比单线程更慢,但是这两次整体效果几乎一样

看起来并不像是电脑的问题,而是Python的线程失效导致没有起到并行计算的作用

第二个怀疑:Python的线程是不是假的线程?

Python 的线程的确封装了底层的操作系统线程,在Linux系统里是Pthread(全称为 POSIX Thread),在Windows系统里是Windows Thread
另外,Python的线程也完全受操作系统管理,比如协调何时执行、管理内存资源、管理中断等等

所以,虽然Python的线程和C++的线程本质上是不同的抽象,但它们的底层并没有什么不同

二、为什么有GIL


看来上面的两个怀疑都不能解释这个未解之谜,那究竟谁才是罪魁祸首呢?事实上,正是全局解释器锁GIL导致Python线程的性能并不像期望的那样

GIL是最流行的Python解释器CPython中的一个技术术语
GIL的意思是全局解释器锁,本质上是类似操作系统的Mutex。每一个Python线程在CPython解释器中执行时,都会先锁住自己的线程,阻止别的线程执行

当然,CPython会做一些小把戏,轮流执行Python线程。这样一来用户看到的就是伪并行——Python线程在交错执行,来模拟真正并行的线程

那么,为什么CPython需要GIL呢?这其实和CPython的实现有关

CPython使用引用计数来管理内存,所有Python脚本中创建的实例都会有一个引用计数,来记录有多少个指针指向它。当引用计数只有0时则会自动释放内存

什么意思呢?看下面这个例子:

>>> import sys
>>> a = []
>>> b = a
>>> sys.getrefcount(a)



这个例子中,a的引用计数是3,因为有a、b和作为参数传递的getrefcount这三个地方,都引用了一个空列表

这样一来,如果有两个Python线程同时引用了a,就会造成引用计数的race condition,引用计数可能最终只增加 1,这样就会造成内存被污染
因为第一个线程结束时会把引用计数减少1,这时可能达到条件释放内存,当第二个线程再试图访问a时就找不到有效的内存

所以,CPython引进GIL其实主要就是这么两个原因:

一是设计者为了规避类似于内存管理这样的复杂的竞争风险问题(race condition)
二是CPython大量使用C语言库,但大部分C语言库都不是原生线程安全的(线程安全会降低性能和增加复杂度)


三、GIL是如何工作的


3.1 GIL的工作示例
下面这张图是一个GIL在Python程序的工作示例:

 

3.2 锁住GIL
其中,Thread1、2、3轮流执行,每一个线程在开始执行时都会锁住GIL,以阻止别的线程执行,同样的,每一个线程执行完一段后会释放GIL,以允许别的线程开始利用资源

3.3 释放GIL
可能会发现一个问题:为什么Python线程会去主动释放GIL呢?毕竟,如果仅仅是要求Python线程在开始执行时锁住GIL,而永远不去释放 GIL,那别的线程就都没有了运行的机会

没错,CPython中还有另一个机制叫做check_interval,意思是CPython解释器会去轮询检查线程GIL的锁住情况。每隔一段时间Python解释器就会强制当前线程去释放GIL,这样别的线程才能有执行的机会

不同版本Python中check interval的实现方式并不一样

早期的Python是100个ticks,大致对应了1000个bytecodes
Python3以后,interval是15毫秒
当然,不必细究具体多久会强制释放GIL,这不应该成为程序设计的依赖条件。只需明白CPython解释器会在一个合理的时间范围内释放GIL即可


整体来说,每一个Python线程都是类似这样循环的封装,看下面这段代码:

 

for (;;) {
    if (--ticker < 0) {
        ticker = check_interval;
    
        /* Give another thread a chance */
        PyThread_release_lock(interpreter_lock);
    
        /* Other threads may run now */
    
        PyThread_acquire_lock(interpreter_lock, 1);
    }

    bytecode = *next_instr++;
    switch (bytecode) {
        /* execute the next instruction ... */ 
    }
}


从这段代码中,可以看到每个Python线程都会先检查ticker计数,只有在ticker大于0的情况下,线程才会去执行自己的bytecode

四、Python的线程安全


有了GIL并不意味着Python编程者就不用去考虑线程安全

即使GIL仅允许一个Python线程执行,Python还有check interval这样的抢占机制。先看看这样一段代码:

import threading

n = 0

def foo():
    global n
    n += 1

threads = []
for i in range(100):
    t = threading.Thread(target=foo)
    threads.append(t)

for t in threads:
    t.start()

for t in threads:
    t.join()

print(n)


多次执行的话就会发现,尽管大部分时候能够打印100,但有时侯也会打印99或者98

这其实就是因为,n+=1这一句代码让线程并不安全。如果翻译foo这个函数的bytecode就会发现,它实际上由下面四行 bytecode 组成:

>>> import dis
>>> dis.dis(foo)
LOAD_GLOBAL              0 (n)
LOAD_CONST               1 (1)
INPLACE_ADD
STORE_GLOBAL             0 (n)


而这四行bytecode中间都是有可能被打断的

所以,千万别想着有了GIL就可以高枕无忧,仍然需要去注意线程安全

GIL的设计主要是为了方便CPython解释器层面的编写者,而不是Python应用层面的程序员。作为Python的使用者还是需要lock等工具来确保线程安全。比如下面的这个例子:

n = 0
lock = threading.Lock()

def foo():
    global n
    with lock:
        n += 1


五、如何绕过GIL


学到这里,估计有的Python使用者感觉自己像被废了武功一样,觉得降龙十八掌只剩下了一掌。其实大可不必,Python的GIL是通过CPython的解释器加的限制。如果代码并不需要CPython解释器来执行,就不再受GIL的限制

事实上,很多高性能应用场景都已经有大量的C实现的Python库,例如NumPy的矩阵运算就都是通过C来实现的,并不受GIL影响

所以,大部分应用情况下并不需要过多考虑GIL,因为如果多线程计算成为性能瓶颈,往往已经有Python库来解决这个问题

换句话说,如果应用真的对性能有超级严格的要求,比如100us就对应用有很大影响,那Python可能不是最优选择

总的来说,只需要重点记住绕过GIL的大致思路:

绕过CPython使用JPython(Java实现的Python解释器)等别的实现
把关键性能代码放到别的语言(一般是C++)中实现


六、思考题


问题
在处理cpu-bound的任务时,为什么有时候使用多线程会比单线程还要慢些?

答案
由于GIL采用轮流运行线程的机制,GIL需要在线程之间不断轮流进行切换,线程如果较多或运行时间较长,切换带来的性能损失可能会超过单线程

问题
GIL是一个好的设计吗?事实上在Python 3之后,有很多关于GIL改进甚至是取消的讨论,你的看法是什么呢?

答案
在python3中,GIL不使用ticks计数,改为使用计时器(执行时间达到阈值后interval=15毫秒,当前线程释放GIL),这样对CPU密集型程序更加友好,但依然没有解决GIL导致的同一时间只能执行一个线程的问题,所以效率依然不尽如人意

多核多线程比单核多线程更差,原因是单核下多线程,每次释放GIL唤醒的那个线程都能获取到GIL锁,所以能够无缝执行,但多核下,CPU0释放GIL后,其他CPU上的线程都会进行竞争,但GIL可能会马上又被CPU0拿到,导致其他几个CPU上被唤醒后的线程会醒着等待到切换时间后又进入待调度状态,这样会造成线程颠簸(thrashing)导致效率更低。

python下想要充分利用多核CPU就用多进程,原因是每个进程有各自独立的GIL,互不干扰,这样就可以真正意义上的并行执行,所以在python中,多进程的执行效率优于多线程(仅仅针对多核CPU而言)

GIL仍然是一种好的设计,虽然损失了一些性能,但在保证资源不发生冲突,预防死锁方面还是有一定作用的

转自:
————————————————
版权声明:本文为CSDN博主「sysu_lluozh」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/lluozh2015/article/details/119066560

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值