python多线程和多进程详解_Python之多线程与多进程(一)

多线程

多线程是程序在同样的上下文中同时运行多条线程的能力。这些线程共享同一个进程的资源,可以在并发模式(单核处理器)或并行模式(多核处理器)下执行多个任务

多线程有以下几个优点:

持续响应:在单线程的程序中,执行一个长期运行的任务可能会导致程序的冻结。多线程可以把这个长期运行的任务放在一个线程中,在程序并发的运行任务时可以持续响应客户的需求

更快的执行速度:在多核处理器的操作系统上,多线程可以通过真正的并行提高程序的运行速度

较低的资源消耗:利用线程模式,程序可以利用一个进程内的资源响应多个请求

更简单的状态共享与进程间的通信机制:由于线程都共享同一资源和内存空间,因此线程之间的通比进程间通信简单

并行化:多处理器系统可以实现多线程的每个线程独立运行

但是多线程也有以下几个缺点:

线程同步:由于多个线程是在同一数据上运行的,所以需要引入一些机制预防竞态条件

问题线程导致集体崩溃:虽然多个线程可以独立运行,但一旦某个线程出现问题,也可能造成整个进程崩溃

死锁:这是线程操作的常见问题。通常,线程执行任务时会锁住正在使用的资源,当一个线程开始等待另一个线程资源释放,而另一个线程同时也要等待第一个线程释放资源时,就发生了死锁

通常,多线程技术完全可以在多处理器上实现并行计算。但是Python的官方版本(CPython)有一个GIL限制,GIL会阻止多个线程同时运行Python的字节码,这就不是真正的并行了。假如你的系统有6个处理器,多线程可以把CPU跑到

600%,然而,你能看到的只有100%,甚至更慢一点,这都是GIL造成的

CPython的GIL是有必要的,因为CPython的内存管理不是线程安全的。因此,为了让每个任务都按顺序进行,它需要确保运行过程中内存不被干扰。它可以更快的运行单线程程序,简化C语言扩展库的使用方法,因为它不需要考虑多线程问题。

但是,GIL是可以用一些办法绕过的。例如,由于GIL只阻止多个线程同时运行Python的字节码,所以可以用C语言写程序,然后用Python封装。这样,在程序运行过程中GIL就不会干扰多线程并发了

另一个GIL不影响性能的示例就是网络服务器了,服务器大部分时间都在读数据包,而当发生IO等待时,会尝试释放GIL。这种情况下,增加线程可以读取更多的包,虽然这并不是真正的并行。这样做可以增加服务器的性能,但是不会影响速度。

用_thread模块创建线程

我们先用一个例子快速演示_thread模块的用法:_thread模块提供了start_new_thread方法。我们可以向里面传入以下参数:

目标函数:里面包含我们要运行的代码,一旦函数返回值,线程就停止运行

参数:即执行目标函数所需的参数,一般以元组的形式传入

import _thread

import time

def print_time(thread_name, delay):

count = 0

while count < 5:

time.sleep(delay)

count += 1

print("%s:%s" % (thread_name, time.ctime(time.time())))

try:

_thread.start_new_thread(print_time, ("thread-A", 1))

_thread.start_new_thread(print_time, ("thread-B", 2))

except:

print("Error: unable to start thread")

while 1:

pass

运行结果:

thread-A:Sun Jul 8 07:39:27 2018

thread-B:Sun Jul 8 07:39:28 2018

thread-A:Sun Jul 8 07:39:28 2018

thread-A:Sun Jul 8 07:39:29 2018

thread-B:Sun Jul 8 07:39:30 2018

thread-A:Sun Jul 8 07:39:30 2018

thread-A:Sun Jul 8 07:39:31 2018

thread-B:Sun Jul 8 07:39:32 2018

thread-B:Sun Jul 8 07:39:34 2018

thread-B:Sun Jul 8 07:39:36 2018

上面的例子很简单,线程A和线程B是并发执行的。

_thread模块还提供了一些容易使用的线程原生接口:

_thread.interrupt_main():这个方法可以向主线程发送中断异常,就像通过键盘向程序输入CTRL+C一样,我们修改print_time方法,当count为2,休眠时间delay为2向主线程发送中断异常

def print_time(thread_name, delay):

count = 0

while count < 5:

time.sleep(delay)

count += 1

if count == 2 and delay == 2:

_thread.interrupt_main()

print("%s:%s" % (thread_name, time.ctime(time.time())))

运行结果:

thread-A:Sun Jul 8 09:12:57 2018

thread-B:Sun Jul 8 09:12:58 2018

thread-A:Sun Jul 8 09:12:58 2018

thread-A:Sun Jul 8 09:12:59 2018

thread-B:Sun Jul 8 09:13:00 2018

Traceback (most recent call last):

File "D:/pypath/hello/test3/test01.py", line 22, in

pass

KeyboardInterrupt

exit:这个方法会从后台退出程序,它的优点是中断线程时不会引起其他异常

def print_time(thread_name, delay):

count = 0

while count < 5:

time.sleep(delay)

count += 1

if count == 2 and delay == 2:

_thread.exit()

print("%s:%s" % (thread_name, time.ctime(time.time())))

运行结果:

thread-A:Sun Jul 8 09:15:51 2018

thread-B:Sun Jul 8 09:15:52 2018

thread-A:Sun Jul 8 09:15:52 2018

thread-A:Sun Jul 8 09:15:53 2018

thread-A:Sun Jul 8 09:15:54 2018

thread-A:Sun Jul 8 09:15:55 2018

allocate_lock方法可以为线程返回一个线程锁,这个锁可以保护某一代码块从开始运行到运行结束只有一个线程,线程锁对象有三个方法:

acquire:这个方法的主要作用是为当前的线程请求一把线程锁。它接受一个可选的整型参数,如果参数是0,那么线程锁一旦被请求则立即获取,不需要等待,如果参数不是0,则表示线程可以等待锁

release:这个方法会释放线程锁,让下一个线程获取

locked:如果线程锁被某个线程获取,就返回True,否则为False

下面这段代码用10个线程对一个全局变量增加值,因此,理想情况下,全局变量的值应该是10:

import _thread

import time

global_values = 0

def run(thread_name):

global global_values

local_copy = global_values

print("%s with value %s" % (thread_name, local_copy))

global_values = local_copy + 1

for i in range(10):

_thread.start_new_thread(run, ("thread-(%s)" % str(i),))

time.sleep(3)

print("global_values:%s" % global_values)

运行结果:

thread-(0) with value 0

thread-(1) with value 0

thread-(2) with value 0

thread-(4) with value 0

thread-(6) with value 0

thread-(8) with value 0

thread-(7) with value 0

thread-(5) with value 0

thread-(3) with value 0

thread-(9) with value 1

global_values:2

但是很遗憾,我们没有得到我们希望的结果,相反,程序运行的结果和我们希望的结果差距更远。造成这样的原因,都是因为多个线程操作同一变量或同一代码块导致有的线程不能读到最新的值,甚至是把旧值的运算结果赋给全部局变量

现在,让我们修改一下原先的代码:

import _thread

import time

global_values = 0

def run(thread_name, lock):

global global_values

lock.acquire()

local_copy = global_values

print("%s with value %s" % (thread_name, local_copy))

global_values = local_copy + 1

lock.release()

lock = _thread.allocate_lock()

for i in range(10):

_thread.start_new_thread(run, ("thread-(%s)" % str(i), lock))

time.sleep(3)

print("global_values:%s" % global_values)

运行结果:

thread-(0) with value 0

thread-(2) with value 1

thread-(4) with value 2

thread-(5) with value 3

thread-(3) with value 4

thread-(6) with value 5

thread-(1) with value 6

thread-(7) with value 7

thread-(8) with value 8

thread-(9) with value 9

现在可以看到,线程的执行顺序依旧是乱序的,但全局变量的值是逐个递增的

_thread还有其他一些方法:

_thread.get_ident():这个方法会返回一个非0的整数,代表当前活动线程的id。这个整数会在线程结束或退出后收回,因此在整个程序的生命周期中它并不是唯一

_thread.stack_size(size):size这个参数是可选项,可在代码创建新线程时设置或返回线程栈的容量,这个容量可以是0,或者至少32KB,具体由操作系统决定

用threading模块创建线程

这是目前Python中处理线程普遍推荐的模块,这个模块提供了更完善和高级的接口,我们尝试将前面的示例转化成threading模块的形式:

import threading

import time

global_values = 0

def run(thread_name, lock):

global global_values

lock.acquire()

local_copy = global_values

print("%s with value %s" % (thread_name, local_copy))

global_values = local_copy + 1

lock.release()

lock = threading.Lock()

for i in range(10):

t = threading.Thread(target=run, args=("thread-(%s)" % str(i), lock))

t.start()

time.sleep(3)

print("global_values:%s" % global_values)

对于更复杂的情况,如果要更好地封装线程的行为,我们可能需要创建自己的线程类,这里需要注意几点:

需要继承thread.Thread类

需要改写run方法,也可以使用__init__方法

如果改写初始化方法__init__,需要在一开始调用父类的初始化方法Thread.__init__

当线程的run方法停止或抛出未处理的异常时,线程将停止,因此要提前设计好方法

可以用初始化方法的name参数名称命名你的线程

import threading

import time

class MyThread(threading.Thread):

def __init__(self, count):

threading.Thread.__init__(self)

self.total = count

def run(self):

for i in range(self.total):

time.sleep(1)

print("Thread:%s - %s" % (self.name, i))

t = MyThread(2)

t2 = MyThread(3)

t.start()

t2.start()

print("finish")

运行结果:

finish

Thread:Thread-2 - 0

Thread:Thread-1 - 0

Thread:Thread-2 - 1

Thread:Thread-1 - 1

Thread:Thread-2 - 2

注意上面主线程先打印了finish,之后才打印其他线程里面的print语句,这并不是什么大问题,但下面的情况就有问题了:

f = open("content.txt", "w+")

t = MyThread(2, f)

t2 = MyThread(3, f)

t.start()

t2.start()

f.close()

我们假设在MyThread中会将打印的语句写入content.txt,但这段代码是会出问题的,因为在开启其他线程前,主线程可能会先关闭文件处理器,如果想避免这种情况,应该使用join方法,join方法会使得被调用的线程执行完毕后,在能返回原先的线程继续执行下去:

f = open("content.txt", "w+")

t = MyThread(2, f)

t2 = MyThread(3, f)

t.start()

t2.start()

t.join()

t2.join()

f.close()

print("finish")

join方法还支持一个可选参数:时限(浮点数或None),以秒为单位。但是join返回值是None。因此,要检查操作是否已超时,需要在join方法返回后查看线程的激活状态,如果线程的状态是激活的,操作就超时了

再来看一个示例,它检查一组网站的请求状态码:

from urllib.request import urlopen

sites = [

"https://www.baidu.com/",

"http://www.sina.com.cn/",

"http://www.qq.com/"

]

def check_http_status(url):

return urlopen(url).getcode()

http_status = {}

for url in sites:

http_status[url] = check_http_status(url)

for key, value in http_status.items():

print("%s %s" % (key, value))

运行结果:

# time python3 test01.py

https://www.baidu.com/ 200

http://www.sina.com.cn/ 200

http://www.qq.com/ 200

real0m1.669s

user0m0.143s

sys0m0.026s

现在,我们尝试着把IO操作函数转变为一个线程来优化代码:

from urllib.request import urlopen

import threading

sites = [

"https://www.baidu.com/",

"http://www.sina.com.cn/",

"http://www.qq.com/"

]

class HttpStatusChecker(threading.Thread):

def __init__(self, url):

threading.Thread.__init__(self)

self.url = url

self.status = None

def run(self):

self.status = urlopen(self.url).getcode()

threads = []

http_status = {}

for url in sites:

t = HttpStatusChecker(url)

t.start()

threads.append(t)

for t in threads:

t.join()

for t in threads:

print("%s %s" % (t.url, t.status))

运行结果:

# time python3 test01.py

https://www.baidu.com/ 200

http://www.sina.com.cn/ 200

http://www.qq.com/ 200

real0m0.237s

user0m0.110s

sys0m0.019s

显然,线程版的程序更快,运行速度几乎是上一版的8倍,性能改善十分显著

通过Event对象实现线程间通信

虽然线程通常是作为独立运行或并行的任务,但是有时也会出现线程间通信的需求,threading模块提供了事件(event)对象实现线程间通信,它包含一个内部标记,以及可以使用set()和clear()方法的调用线程

Event类的接口很简单,它支持的方法如下:

is_set:如果事件设置了内部标记,就返回True

set:把内部标记设置为True。它可以唤醒等待被设置标记的所有线程,调用wait()方法的线程将不再被阻塞

clear:重置内部标记。调用wait方法的线程,在调用set()方法之前都将被阻塞

wait:在事件的内部标记被设置好之前,使用这个方法会一直阻塞线程调用,这个方法支持一个可选参数,作为等待时限(timeout)。如果等待时限非0,则线程会在时限内被一直阻塞

让我们用线程事件对象来演示一个简单的线程通信示例,它们可以轮流打印字符串。两个线程共享同一个事件对象。在while循环中,每次循环时,一个线程设置标记,另一个线程重置标记。

import threading

import time

class ThreadA(threading.Thread):

def __init__(self, event):

threading.Thread.__init__(self)

self.event = event

def run(self):

count = 0

while count < 6:

time.sleep(1)

if self.event.is_set():

print("A")

self.event.clear()

count += 1

class ThreadB(threading.Thread):

def __init__(self, event):

threading.Thread.__init__(self)

self.event = event

def run(self):

count = 0

while count < 6:

time.sleep(1)

if not self.event.is_set():

print("B")

self.event.set()

count += 1

event = threading.Event()

ta = ThreadA(event)

tb = ThreadB(event)

ta.start()

tb.start()

运行结果:

B

A

B

A

B

A

B

A

B

A

B

下面总结一下Python多线程的使用时机:

使用多线程:

频繁的IO操作

并行任务可以通过并发解决

GUI开发

不使用多线程:

大量的CPU操作任务

程序必须利用多核心操作系统

多进程

由于GIL的存在,Python的多线程并没有实现真正的并行。因此,一些问题使用threading模块并不能解决

不过Python为并行提供了一个替代方法:多进程。在多进程里,线程被换成一个个子进程。每个进程都运作着各自的GIL(这样Python就可以并行开启多个进程,没有数量限制)。需要明确的是,线程都是同一个进程的组成部分,它们共享同一块内存、存储空间和计算资源。而进程却不会与它们的父进程共享内存,因此进程间通信比线程间通信更为复杂

多进程相比多线程优缺点如下:

优点

缺点

可以使用多核操作系统

更多的内存消耗

进程使用独立的内存空间,避免竞态问题

进程间的数据共享变得更加困难

子进程容易中断

进程间通信比线程困难

避开GIL限制

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值