python学习笔记-协程

#==============================协程========================
#参考资料
#http://python.jobbole.com/86481/
#http://python.jobbole.com/87310/
#https://segmentfault.com/a/1190000009781688

#=========================迭代器=========================
#可迭代(Iterable):直接作用于for循环的变量
#迭代器(Iterator):不但可以作用于for循环,还可以被next调用

#list是典型的可迭代对象,但不是迭代器

    from collections import Iterable
    print(isinstance([x for x in range(10))], Iterable)) #通过isinstance判断是否可迭代

    from collections import Iterator
    print(isinstance((x for x in range(10)), Iterator)) #通过isinstance判断是否是迭代器
    
    isinstance(iter('abc'), Iterator) #通过iter函数,将iterable转换成iterator

#=========================生成器generator=========================
#    generator: 一边循环一边计算下一个元素的机制/算法
#    需要满足三个条件:
#    1、每次调用都生产出for循环需要的下一个元素或者
#    2、如果达到最后一个后,爆出StopIteration异常
#    3、可以被next函数调用#    如何生成一个生成器:
#    1、直接使用
    l = [x*x for x in range(5)] # 放在中括号中是列表生成器
    g = (x*x for x in range(5))#  放在小括号中就是生成器
    
#    2、写一个生成器,如果函数中包含yield,则这个函数就叫生成器
#    next调用函数,遇到yield返回
# 斐波那契额数列的生成器写法

    def fib(max):
        n, a, b = 0, 0, 1 # 注意写法
        while n < max:
            yield b
            a,b = b, a+b # 注意写法
            n += 1
            
        #需要注意,爆出异常时的返回值是return的返回值
        return 'Done'

    g = fib(5)

    for i in range(6):
        rst = next(g)
        print(rst)

#=========================协程=========================
# 历史历程
# 3.4引入协程,用yield实现
# 3.5引入协程语法
# 实现的协程比较好的包有asyncio, tornado, gevent

# 定义:协程是为非抢占式多任务产生子程序的计算机程序组件,协程允许不同入口点在不同位置暂停或开始执行程序”。
# 从技术角度讲,协程就是一个你可以暂停执行的函数,或者干脆把协程理解成生成器
# 协程的实现:
    # yield返回
    # send调用

# 协程的四个状态
# inspect.getgeneratorstate(…) 函数确定,该函数会返回下述字符串中的一个:
# GEN_CREATED:等待开始执行
# GEN_RUNNING:解释器正在执行
# GEN_SUSPENED:在yield表达式处暂停
# GEN_CLOSED:执行结束
# next预激(prime)

    def simple_coroutine(a):
        print('-> start')

        b = yield a
        print('-> recived', a, b)

        c = yield a + b
        print('-> recived', a, b, c)

    #主线程
    sc = simple_coroutine(5)

    # 可以使用sc.send(None),效果一样
    aa = next(sc)    #预激
    print(aa)
    bb = sc.send(6) # 5, 6
    print(bb)
    cc = sc.send(7) # 5, 6, 7
    print(cc)

# 协程终止
# 协程中未处理的异常会向上冒泡,传给 next 函数或 send 方法的调用方(即触发协程的对象)
# 终止协程的一种方式:发送某个哨兵值,让协程退出。内置的 None 和Ellipsis 等常量经常用作哨符值==。

# 异常
  # 客户段代码可以在生成器对象上调用两个方法
  generator.throw(Exctpiton):
  # 致使生成器在暂停的 yield 表达式处抛出指定的异常。
  # 如果生成器处理了抛出的异常,代码会向前执行到下一个 yield 表达式,
  # 而产出的值会成为调用 generator.throw方法得到的返回值。
  # 如果生成器没有处理抛出的异常,异常会向上冒泡,传到调用方的上下文中。

  generator.close()
    # 致使生成器在暂停的 yield 表达式处抛出 GeneratorExit 异常。
    # 如果生成器没有处理这个异常,或者抛出了 StopIteration 异常(通常是指运行到结尾),
    # 调用方不会报错。如果收到 GeneratorExit 异常,生成器一定不能产出值,否则解释器会抛出RuntimeError 异常。生成器抛出的其他异常会向上冒泡,传给调用方。

# yield from
# 调用协程为了得到返回值,协程必须正常终止
# 生成器正常终止会发出StopIteration异常,异常对象的vlaue属性保存返回值
# yield from从内部捕获StopIteration异常

    def gen():
        for c in 'AB':
            yield c
    # list直接用生成器作为参数
    print(list(gen()))

    def gen_new():
        yield from 'AB'
    print(list(gen_new()))


    # 委派生成器
    # 包含yield from表达式的生成器函数
    # 委派生成器在yield from表达式出暂停,调用方可以直接把数据发给自生成器
    # 子生成器在把产出的值发给调用放
    # 自生成器在最后,解释器会抛出StopIteration,并且把返回值附加到异常对象上
    
    # 委派生成器案例: 
 

    from collections import namedtuple
    '''
    解释:
    1. 外层 for 循环每次迭代会新建一个 grouper 实例,赋值给 coroutine 变量; grouper 是委派生成器。
    2. 调用 next(coroutine),预激委派生成器 grouper,此时进入 while True 循环,调用子生成器 averager 后,在 yield from 表达式处暂停。
    3. 内层 for 循环调用 coroutine.send(value),直接把值传给子生成器 averager。同时,当前的 grouper 实例(coroutine)在 yield from 表达式处暂停。
    4. 内层循环结束后, grouper 实例依旧在 yield from 表达式处暂停,因此, grouper函数定义体中为 results[key] 赋值的语句还没有执行。
    5. coroutine.send(None) 终止 averager 子生成器,子生成器抛出 StopIteration 异常并将返回的数据包含在异常对象的value中,yield from 可以直接抓取 StopItration 异常并将异常对象的 value 赋值给 results[key]
    '''
    ResClass = namedtuple('Res', 'count average')

    # 子生成器
    def averager():
        total = 0.0
        count = 0
        average = None

        while True:
            term = yield
            # None是哨兵值
            if term is None:
                break
            total += term
            count += 1
            average = total / count
        return ResClass(count, average)

    # 委派生成器
    def grouper(storages, key):
        while True:
            # 获取averager()返回的值
            storages[key] = yield from averager()

    # 客户端代码
    def client():
        process_data = {
            'boys_2': [39.0, 40.8, 43.2, 40.8, 43.1, 38.6, 41.4, 40.6, 36.3],
            'boys_1': [1.38, 1.5, 1.32, 1.25, 1.37, 1.48, 1.25, 1.49, 1.46]
        }

        storages = {}
        for k, v in process_data.items():
            # 获得协程
            coroutine = grouper(storages, k)
            # 预激协程
            next(coroutine)
            # 发送数据到协程
            for dt in v:
                coroutine.send(dt)
            # 终止协程
            coroutine.send(None)
        print(storages)

    # run
    client()
        


# asyncio
# python3.4开始引入的标准库,内置了对异步io的支持
# asyncio本身是一个消息循环,
# 步骤
    # 创建消息循环
    # 把协程导入
    # 关闭

# async and await
# 为了更好的表示异步io
# python3.5 开始引入
# 让coroutine代码更简洁
# 使用上,可以简单进行替换
    # 可以把 @asyncio.coroutine 替换成async
    # yield from 替换成await   #实例1:

    #引入异步IO包
    import asyncio

    # 使用协程
    # @asyncio.coroutine
    # def hello():
    async def hello():
        print("Hello world!")
        # 异步调用asyncio.sleep(1):
        print("Start......")
        #yield from asyncio.sleep(3) #同下
        await asyncio.sleep(3)
        print("Done....")
        print("Hello again!")

    # 启动消息循环,获取EventLoop:
    loop = asyncio.get_event_loop()
    # 定义任务
    tasks = [hello(), hello()]
    # asyncio使用wait等待task执行完毕
    loop.run_until_complete(asyncio.wait(tasks))
    # 关闭消息循环
    loop.close()
    

    #实例2:

    import asyncio

    @asyncio.coroutine
    def wget(host):
        print('wget %s...' % host)
        # 异步请求网络地址
        connect = asyncio.open_connection(host, 80)
        # 注意yield from的用法
        reader, writer = yield from connect
        header = 'GET / HTTP/1.0\r\nHost: %s\r\n\r\n' % host
        writer.write(header.encode('utf-8'))
        yield from writer.drain()
        while True:
            line = yield from reader.readline()
            # http协议的换行使用\r\n
            if line == b'\r\n':
                break
            print('%s header > %s' % (host, line.decode('utf-8').rstrip()))
        # Ignore the body, close the socket
        writer.close()

    loop = asyncio.get_event_loop()
    tasks = [wget(host) for host in ['www.sina.com.cn', 'www.sohu.com', 'www.163.com']]
    loop.run_until_complete(asyncio.wait(tasks))
    loop.close()

# aiohttp
  # asyncio实现单线程并发IO,在客户端用处不大
  # 在服务器端可以asyncio+coroutine配合,因为http是io操作
  # asyncio实现了TCP,UIDP,SSL等协议
  # aiohttp是给予asyncio实现的HTTP框架
  # pip install aiohttp
  
  #实例:

    import asyncio

    from aiohttp import web

    async def index(request):
        await asyncio.sleep(0.5)
        return web.Response(body=b'<h1>Index</h1>')

    async def hello(request):
        await asyncio.sleep(0.5)
        text = '<h1>hello, %s!</h1>' % request.match_info['name']
        return web.Response(body=text.encode('utf-8'))

    async def init(loop):
        app = web.Application(loop=loop)
        app.router.add_route('GET', '/', index)
        app.router.add_route('GET', '/hello/{name}', hello)
        srv = await loop.create_server(app.make_handler(), '127.0.0.1', 8000)
        print('Server started at http://127.0.0.1:8000...')
        return srv

    loop = asyncio.get_event_loop()
    loop.run_until_complete(init(loop))
    loop.run_forever()

# concurrent.futures, python3新增的库,类似其他语言的线程池的概念
# 此模块利用multiprocessiong实现真正的平行计算
# 核心原理是:concurrent.futures会以子进程的形式,平行的运行多个python解释器,从而令python程序可以利用多核CPU来提升执行速度。
    # 由于子进程与主解释器相分离,所以他们的全局解释器锁也是相互独立的。每个子进程都能够完整的使用一个CPU内核。
    #concurrent.futures.Executor 
    # ThreadPoolExecutor
    # ProcessPoolExecutor
    # submit(fn, args, kwargs)
    # fn:异步执行的函数
    # args,kwargs:参数
    
  # 案例1:官方死锁

  import time
  def wait_on_b():
      time.sleep(5)
      print(b.result())  #b不会完成,他一直在等待a的return结果
      return 5

  def wait_on_a():
      time.sleep(5)
      print(a.result())  #同理a也不会完成,他也是在等待b的结果
      return 6

    #创建一个线程池
  executor = ThreadPoolExecutor(max_workers=2)
  #往线程池加入2个任务
  a = executor.submit(return_future,wait_on_b)
  b = executor.submit(return_future,wait_on_a)

  # map(fn, \*iterables, timeout=None)
  # 跟map函数类似
  # 函数需要异步执行
  # timeout: 超时时间
    
  #起执行结果是list,数据需要从list中取出来
  with concurrent.futures.ThreadPoolExecutor(max_workers=3) as executor:
        print(list(executor.map(sleeper, x)))

    # 案例:

    from concurrent.futures import ThreadPoolExecutor as Pool
    #import requests
    import urllib
    from urllib import request

    URLS = ['http://www.baidu.com', 'http://qq.com', 'http://sina.com']

    def task(url, timeout=20):
        #return requests.get(url, timeout=timeout)
        return request.urlopen(url, timeout=timeout)

    pool = Pool(max_workers=3)
    results = pool.map(task, URLS)

    import time
    time.sleep(20)
    for ret in results:
        print('%s, %s' % (ret.url, len(ret.read())))

# submit和map根据需要选一个即可

    import time,re,fcntl
    import os,datetime
    from concurrent import futures

    count_list = list()
    MinuteNum = 1
    StartTime = datetime.datetime(2018, 5, 1, 19, 31, 0, 484870)
    NowTime = datetime.datetime.now()
    os.system(':>new.txt')

    f_new = open('new.txt','a')

    def conc(CountTimeFormat):
       f = open('push_slave.stdout', 'r')
       for line in f.readlines():
           if re.search(CountTimeFormat,line):
               #获得文件专用锁
               fcntl.flock(f_new, fcntl.LOCK_EX)
               f_new.writelines(line)
               f_new.flush()
               #释放文件锁
               fcntl.flock(f_new, fcntl.LOCK_UN)
               break

    while 1:
       AfterOneMinute = datetime.timedelta(minutes=MinuteNum)
       CountTime = AfterOneMinute + StartTime
       CountTimeFormat = CountTime.strftime('%Y-%m-%d %H:%M')
       MinuteNum = MinuteNum+1
       count_list.append(CountTimeFormat)
       if CountTimeFormat == "2018-05-2 16:00":
           break

    def exec_cmd():
       with futures.ProcessPoolExecutor(max_workers=24) as executor:
           dict(( executor.submit(conc, times), times) for times in count_list)

    if __name__ == '__main__':
       exec_cmd()
       f_new.close()

# Future
    # 未来需要完成的任务
    # future 实例由Excutor.submit创建

    from concurrent.futures import ThreadPoolExecutor as Pool
    from concurrent.futures import as_completed
    import requests

    URLS = ['http://qq.com', 'http://sina.com', 'http://www.baidu.com', ]

    def task(url, timeout=10):
        return requests.get(url, timeout=timeout)

    with Pool(max_workers=3) as executor:
        future_tasks = [executor.submit(task, url) for url in URLS]

        for f in future_tasks:
            if f.running():
                print('%s is running' % str(f))

        for f in as_completed(future_tasks):
            try:
                ret = f.done()
                if ret:
                    f_ret = f.result()
                    print('%s, done, result: %s, %s' % (str(f), f_ret.url, len(f_ret.content)))
            except Exception as e:
                f.cancel()
                print(str(e))

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值