引言:协程(coroutine)是Python中一直较为难理解的知识,但其在多任务协作中体现的效率又极为的突出。众所周知,Python中执行多任务还可以通过
多进程
或一个进程中的多线程
来执行,但两者之中均存在一些缺点。因此,我们引出了协程。
Tips
欲看完整代码请见我的GitHub.
目录
为什么需要协程?
首先,我们需要知道同步和异步是什么东东,不知道的看详解。
简单来说:
【同步】:就是发出一个“调用”时,在没有得到结果之前,该“调用”就不返回,“调用者”需要一直等待该“调用”结束,才能进行下一步工作。
【异步】:“调用”在发出之后,就直接返回了,也就没有返回结果。“被调用者”完成任务后,通过状态来通知“调用者”继续回来处理该“调用”。
下面我们先来看一个用普通同步代码实现多个IO任务的案例。
# 普通同步代码实现多个IO任务
import time
def taskIO_1():
print('开始运行IO任务1...')
time.sleep(2) # 假设该任务耗时2s
print('IO任务1已完成,耗时2s')
def taskIO_2():
print('开始运行IO任务2...')
time.sleep(3) # 假设该任务耗时3s
print('IO任务2已完成,耗时3s')
start = time.time()
taskIO_1()
taskIO_2()
print(‘所有IO任务总耗时%.5f秒’ % float(time.time()-start))
执行结果:
开始运行IO任务1...
IO任务1已完成,耗时2s
开始运行IO任务2...
IO任务2已完成,耗时3s
所有IO任务总耗时5.00604秒
上面,我们顺序实现了两个同步IO任务taskIO_1()
和taskIO_2()
,则最后总耗时就是5秒。我们都知道,在计算机中CPU的运算速率要远远大于IO速率,而当CPU运算完毕后,如果再要闲置很长时间去等待IO任务完成才能进行下一个任务的计算,这样的任务执行效率很低。
所以我们需要有一种异步的方式来处理类似上述任务,会极大增加效率(当然就是协程啦~)。而我们最初很容易想到的,是能否在上述IO任务执行前中断当前IO任务(对应于上述代码time.sleep(2)
),进行下一个任务,当该IO任务完成后再唤醒该任务。
而在Python中生成器中的关键字yield
可以实现中断功能。所以起初,协程是基于生成器的变形进行实现的,之后虽然编码形式有变化,但基本原理还是一样的。戳我查看生成器及迭代器和可迭代对象的讲解和区别。
一、使用yield from和@asyncio.coroutine实现协程
在Python3.4中,协程都是通过使用yield from和asyncio模块
中的@asyncio.coroutine来实现的。asyncio
专门被用来实现异步IO操作。
(1)什么是yield from?和yield有什么区别?
【1】我们都知道,yield
在生成器中有中断的功能,可以传出值,也可以从函数外部接收值,而yield from
的实现就是简化了yield
操作。
让我们先来看一个案例:
def generator_1(titles):
yield titles
def generator_2(titles):
yield from titles
titles = [‘Python’,‘Java’,‘C++’]
for title in generator_1(titles):
print(‘生成器1:’,title)
for title in generator_2(titles):
print(‘生成器2:’,title)
执行结果如下:
生成器1: ['Python', 'Java', 'C++']
生成器2: Python
生成器2: Java
生成器2: C++
在这个例子中yield titles
返回了titles
完整列表,而yield from titles
实际等价于:
for title in titles: # 等价于yield from titles
yield title
【2】而yield from
功能还不止于此,它还有一个主要的功能是省去了很多异常的处理,不再需要我们手动编写,其内部已经实现大部分异常处理。
【举个例子】:下面通过生成器来实现一个整数加和的程序,通过send()
函数向生成器中传入要加和的数字,然后最后以返回None
结束,total
保存最后加和的总数。
def generator_1():
total = 0
while True:
x = yield
print('加',x)
if not x:
break
total += x
return total
def generator_2(): # 委托生成器
while True:
total = yield from generator_1() # 子生成器
print('加和总数是:',total)
def main(): # 调用方
g1 = generator_1()
g1.send(None)
g1.send(2)
g1.send(3)
g1.send(None)
# g2 = generator_2()
# g2.send(None)
# g2.send(2)
# g2.send(3)
# g2.send(None)
main()
如果把g1.send()
那5行注释掉,解注下面的g2.send()
代码,则结果如下。可见yield from
封装了处理常见异常的代码。对于g2
即便传入None
也不报异常,其中total = yield from generator_1()
返回给total
的值是generator_1()
最终的return total
加 2
加 3
加 None
加和总数是: 5
【3】借用上述例子,这里有几个概念需要理一下:
- 【子生成器】:yield from后的generator_1()生成器函数是子生成器
- 【委托生成器】:generator_2()是程序中的委托生成器,它负责委托子生成器完成具体任务。
- 【调用方】:main()是程序中的调用方,负责调用委托生成器。
yield from
在其中还有一个关键的作用是:建立调用方和子生成器的通道,
- 在上述代码中
main()
每一次在调用send(value)
时,value
不是传递给了委托生成器generator_2(),而是借助yield from
传递给了子生成器generator_1()中的yield
- 同理,子生成器中的数据也是通过
yield
直接发送到调用方main()中。
之后我们的代码都依据调用方-子生成器-委托生成器
的规范形式书写。
(2)如何结合@asyncio.coroutine实现协程
那yield from
通常用在什么地方呢?在协程中,只要是和IO任务类似的、耗费时间的任务都需要使用yield from
来进行中断,达到异步功能!
我们在上面那个同步IO任务的代码中修改成协程的用法如下:
# 使用同步方式编写异步功能
import time
import asyncio
@asyncio.coroutine # 标志协程的装饰器
def taskIO_1():
print('开始运行IO任务1...')
yield from asyncio.sleep(2) # 假设该任务耗时2s
print('IO任务1已完成,耗时2s')
return taskIO_1.__name__
@asyncio.coroutine # 标志协程的装饰器
def taskIO_2():
print('开始运行IO任务2...')
yield from asyncio.sleep(3) # 假设该任务耗时3s
print('IO任务2已完成,耗时3s')
return taskIO_2.__name__
@asyncio.coroutine # 标志协程的装饰器
def main(): # 调用方
tasks = [taskIO_1(), taskIO_2()] # 把所有任务添加到task中
done,pending = yield from asyncio.wait(tasks) # 子生成器
for r in done: # done和pending都是一个任务,所以返回结果需要逐个调用result()
print('协程无序返回值:'+r.result())
if name == ‘main’:
start = time.time()
loop = asyncio.get_event_loop() # 创建一个事件循环对象loop
try:
loop.run_until_complete(main()) # 完成事件循环,直到最后一个任务结束
finally:
loop.close() # 结束事件循环
print(‘所有IO任务总耗时%.5f秒’ % float(time.time()-start))
【使用方法】: @asyncio.coroutine
装饰器是协程函数的标志,我们需要在每一个任务函数前加这个装饰器,并在函数中使用yield from
。在同步IO任务的代码中使用的time.sleep(2)
来假设任务执行了2秒。但在协程中yield from
后面必须是子生成器函数,而time.sleep()
并不是生成器,所以这里需要使用内置模块提供的生成器函数asyncio.sleep()
。
【功能】:通过使用协程,极大增加了多任务执行效率,最后消耗的时间是任务队列中耗时最多的时间。上述例子中的总耗时3秒就是taskIO_2()
的耗时时间。
【执行过程】:
- 上面代码先通过
get_event_loop()
获取了一个标准事件循环loop(因为是一个,所以协程是单线程) - 然后,我们通过
run_until_complete(main())
来运行协程(此处把调用方协程main()作为参数,调用方负责调用其他委托生成器),run_until_complete
的特点就像该函数的名字,直到循环事件的所有事件都处理完才能完整结束。 - 进入调用方协程,我们把多个任务[
taskIO_1()
和taskIO_2()
]放到一个task
列表中,可理解为打包任务。 - 现在,我们使用
asyncio.wait(tasks)
来获取一个awaitable objects即可等待对象的集合(此处的aws是协程的列表),并发运行传入的aws,同时通过yield from
返回一个包含(done, pending)
的元组,done表示已完成的任务列表,pending表示未完成的任务列表;如果使用asyncio.as_completed(tasks)
则会按完成顺序生成协程的迭代器(常用于for循环中),因此当你用它迭代时,会尽快得到每个可用的结果。【此外,当轮询到某个事件时(如taskIO_1()),直到遇到该任务中的yield from
中断,开始处理下一个事件(如taskIO_2())),当yield from
后面的子生成器完成任务时,该事件才再次被唤醒】 - 因为
done
里面有我们需要的返回结果,但它目前还是个任务列表,所以要取出返回的结果值,我们遍历它并逐个调用result()
取出结果即可。(注:对于asyncio.wait()
和asyncio.as_completed()
返回的结果均是先完成的任务结果排在前面,所以此时打印出的结果不一定和原始顺序相同,但使用gather()
的话可以得到原始顺序的结果集,两者更详细的案例说明见此) - 最后我们通过
loop.close()
关闭事件循环。
综上所述:协程的完整实现是靠①事件循环+②协程。
二、使用async和await实现协程
在Python 3.4中,我们发现很容易将协程和生成器混淆(虽然协程底层就是用生成器实现的),所以在后期加入了其他标识来区别协程和生成器。
在Python 3.5开始引入了新的语法async
和await
,以简化并更好地标识异步IO。
要使用新的语法,只需要做两步简单的替换:
- 把
@asyncio.coroutine
替换为async
; - 把
yield from
替换为await
。
更改上面的代码如下,可得到同样的结果:
import time
import asyncio
async def taskIO_1():
print('开始运行IO任务1...')
await asyncio.sleep(2) # 假设该任务耗时2s
print('IO任务1已完成,耗时2s')
return taskIO_1.__name__
async def taskIO_2():
print('开始运行IO任务2...')
await asyncio.sleep(3) # 假设该任务耗时3s
print('IO任务2已完成,耗时3s')
return taskIO_2.__name__
async def main(): # 调用方
tasks = [taskIO_1(), taskIO_2()] # 把所有任务添加到task中
done,pending = await asyncio.wait(tasks) # 子生成器
for r in done: # done和pending都是一个任务,所以返回结果需要逐个调用result()
print('协程无序返回值:'+r.result())
if name == ‘main’:
start = time.time()
loop = asyncio.get_event_loop() # 创建一个事件循环对象loop
try:
loop.run_until_complete(main()) # 完成事件循环,直到最后一个任务结束
finally:
loop.close() # 结束事件循环
print(‘所有IO任务总耗时%.5f秒’ % float(time.time()-start))
from tqdm import tqdm for i in tqdm(range(10000)): pass
使用
tqdm
实现效果:
四、结束语
感谢大家能耐心读到这里,写了这么多文字,再来个真实的案例实战一下效果更佳哦~!
以下是一个协程在爬虫的应用实战案例,其中对比了分布式多进程爬虫,最后将异步爬虫和多进程爬虫融合(含案例以及耗时对比),效果更好。我们可以先提前来通过一幅图看清多进程和协程的爬虫之间的原理及其区别。(图片来源于网络)
这里,异步爬虫不同于多进程爬虫,它使用单线程(即仅创建一个事件循环,然后把所有任务添加到事件循环中)就能并发处理多任务。在轮询到某个任务后,当遇到耗时操作(如请求URL)时,挂起该任务并进行下一个任务,当之前被挂起的任务更新了状态(如获得了网页响应),则被唤醒,程序继续从上次挂起的地方运行下去。极大的减少了中间不必要的等待时间。【参考文献】:
[1] Python协程:从yield/send到async/await
[2] 廖雪峰.协程
[3] Python 3.7.2文档.协程与任务
[4] 加速爬虫: 异步加载 Asyncio
[5]《python高级编程》异步IO和协程(视频)
[6] 关于同步、异步与阻塞、非阻塞的理解
[7] python:利用asyncio进行快速抓取(aiohttp)
[8] 控制组合式 CoroutinesTensorFlow 2.0 三大项目实战