python的进程线程和协程_python 线程,进程与协程

引言

在学习过socket和socketserver后,我们了解到socketserver可以支持IO多路复用。在定义socketserver服务端的时候一般会使用:

server = socketserver.ThreadingTCPServer(settings.IP_PORT, MyServer)

ThreadingTCPServer这个类便是可以支持多线程和TCP协议的socketserver模块。读源码的时候可以发现其继承关系:

class ThreadingTCPServer(ThreadingMixIn, TCPServer): pass

右边的TCPServer实际上是它主要的功能父类,而左边的ThreadingMixIn则是实现了多线程的类,它自己本身则没有任何代码。MixIn在python的类命名中,很常见,一般被称为“混入”,戏称“乱入”,通常为了某种重要功能被子类继承。

class ThreadingMixIn:

daemon_threads = False

def process_request_thread(self, request, client_address):

try:

self.finish_request(request, client_address)

self.shutdown_request(request)

except:

self.handle_error(request, client_address)

self.shutdown_request(request)

def process_request(self, request, client_address):

t = threading.Thread(target = self.process_request_thread,

args = (request, client_address))

t.daemon = self.daemon_threads

t.start()

一、线程:

线程,有时被称为轻量级进程(Lightweight Process,LWP),是程序执行流的最小单元。一个标准的线程由线程ID,当前指令指针(PC),寄存器集合和堆栈组成。另外,线程是进程中的一个实体,是被系统独立调度和分派的基本单位,线程自己不独立拥有系统资源,但它可与同属一个进程的其它线程共享该进程所拥有的全部资源。一个线程可以创建和撤消另一个线程,同一进程中的多个线程之间可以并发执行。由于线程之间的相互制约,致使线程在运行中呈现出间断性。线程也有就绪、阻塞和运行三种基本状态。就绪状态是指线程具备运行的所有条件,逻辑上可以运行,在等待处理机;运行状态是指线程占有处理机正在运行;阻塞状态是指线程在等待一个事件(如某个信号量),逻辑上不可执行。每一个应用程序都至少有一个进程和一个线程。线程是程序中一个单一的顺序控制流程。在单个程序中同时运行多个线程完成不同的被划分成一块一块的工作,称为多线程。

好比一个工厂中分为多个厂房,每个厂房中又有若干条生产线。每条生产线生产特定的产品,再由工厂组装起来统一发货(输出)。每个工厂就相当于一个进程,每条生产线相当于一个线程。

普通多线程

通过threading模块,可以轻易的在当前进程中创建多个线程。

import threading

import time

def show(arg):

time.sleep(1)

print('thread'+str(arg))

for i in range(10):

t = threading.Thread(target=show, args=(i,))

t.start()

print('main thread stop')

上述代码创建了10个“前台”线程,然后控制器就交给了CPU,CPU根据指定算法进行调度,分片执行指令。

下面是Thread类的主要方法:

start 线程准备就绪,等待CPU调度

setName 为线程设置名称

getName 获取线程名称

setDaemon 设置为后台线程或前台线程(默认)

如果是后台线程,主线程执行过程中,后台线程也在进行,主线程执行完毕后,后台线程不论成功与否,均停止。如果是前台线程,主线程执行过程中,前台线程也在进行,主线程执行完毕后,等待前台线程也执行完成后,程序停止。

join 逐个执行每个线程,执行完毕后继续往下执行,该方法使得多线程变得无意义。

run 线程被cpu调度后自动执行线程对象的run方法

自定义线程类:

通过阅读源码,可以发现threading模块中的Thread类,本质上是执行了它的run方法,可以自定义线程类,继承Tread类,然后重写run方法。

importthreadingclassMyThread(threading.Thread):def __init__(self,func,args):

self.func=func

self.args=args

super(MyThread,self).__init__() #继承父类构造方法

defrun(self):

self.func(self.args)deff2(arg):print(arg)

obj= MyThread(f2,123)

obj.start()

自定义线程类

线程锁

由于线程之间是进行随机调度,并且每个线程可能只执行n条执行之后,当多个线程同时修改同一条数据时可能会出现脏数据,所以,出现了线程锁 - 同一时刻允许一个线程执行操作。

未使用锁:

#!/usr/bin/env python

# _*_ coding:utf_8 _*_

import threading

import time

NUM = 0

def f1():

global NUM

NUM+=1

name = t.getName()

time.sleep(1)

print(name,'执行结果',NUM)

for i in range(10):

t = threading.Thread(target=f1)

t.start()

#f1作为子线程执行,由于存在time.sleep(1),当主进程执行完毕之后,子线程才开始执行。导致结果出错。

print('执行结束')

执行结果:

执行结束

Thread-1 执行结果 10

Thread-4 执行结果 10

Thread-3 执行结果 10

Thread-5 执行结果 10

Thread-2 执行结果 10

Thread-6 执行结果 10

Thread-8 执行结果 10

Thread-7 执行结果 10

Thread-10 执行结果 10

Thread-9 执行结果 10

由于线程共用同一进程的资源,当主进程执行完之后再执行子线程时,产生了脏数据,因为主进程在for循环中已经从0-9赋值一遍。而子线程sleep 1 s后才开执行。这时得到的结果是循环10次后的结果。

为了解决这个问题,python在threading模块中定义了几种线程锁类,分别是:

Lock 普通锁(不可嵌套)

RLock 普通锁(可嵌套)常用

Semaphore 信号量

event 事件

condition 条件

线程锁(Lock,RLock)

线程锁也叫互斥锁,是独占的,同一时刻只有一个线程被放行。

importthreadingimporttime

NUM=0deff1(i,lock):globalNUM

name= t.getName()#t是定义的线程,将这句代码放在线程锁之后会导致无法获取正确的线程名

lock.acquire() #定义锁作用空间的起始位置

NUM+=1

#name = threading.current_thread().name #等效于getName,不过输出的是每次执行的线程名

time.sleep(1)print(name,i,'执行结果',NUM)

lock.release()#释放锁

lock =threading.RLock()#lock = threading.Lock()

for i in range(30):

t= threading.Thread(target=f1,args=(i,lock,))

t.start()#f1作为子线程执行,由于存在time.sleep(1),当主进程执行完毕之后,子线程才开始执行。如果不使用线程锁的话结果出错。

print('执行结束')

线程锁

以上是threading模块的Lock类,它不支持嵌套锁。RLcok类的用法和Lock一模一样,但它支持嵌套,因此我们一般直接使用RLcok类。

信号量(Semaphore)

信号量根据设定的数值一次放行相应的数量的线程,它不是互斥锁。比如地铁安检,一次只能放行一定数量的人,剩下的继续排队等候。

importthreadingimporttime

NUM=0deff1(i,lock):globalNUM

name=t.getName()

lock.acquire()#定义锁作用空间的起始位置

NUM+=1name=t.getName()

time.sleep(1)print(name,i,'执行结果',NUM)

lock.release()#释放锁

lock = threading.BoundedSemaphore(5)for i in range(30):

t= threading.Thread(target=f1,args=(i,lock,))

t.start()print('执行结束')

信号量

事件(Event)

类名:Event

事件主要提供了三个方法 set、wait、clear。

事件机制:全局定义了一个“Flag”,如果“Flag”的值为False,那么当程序执行wait方法时就会阻塞,如果“Flag”值为True,那么wait方法时便不再阻塞(wait默认为阻塞状态)。这种锁,类似交通红绿灯(默认是红灯),它属于在红灯的时候一次性阻挡所有线程,在绿灯的时候,一次性放行所有的排队中的线程。

clear:将“Flag”设置为False

set:将“Flag”设置为True

importthreadingdeffunc(e,i):print(i)

e.wait()#检测当前event是什么状态,如果是红灯,则阻塞,绿灯则放行。默认为红灯。

print(i+100)

event=threading.Event()for i in range(10):

t= threading.Thread(target=func,args=(event,i))

t.start()

event.clear()#将状态设置为红灯。

inp = input('>>>')if inp.strip() =='b':

event.set()#将状态设置为绿灯

事件

条件锁(condition)

条件锁会让线程等待直到满足条件是才释放进程

importthreadingdefcondiction():

ret=False

inp= input('>>>')if inp == 'y':

ret=Truereturnretdeffunc(cond,i):print(i)

cond.acquire()

cond.wait_for(condiction)#接受函数condition的返回值,Wait until a condition evaluates to True

print(i+100)

cond.release()

c=threading.Condition()for i in range(10):

t= threading.Thread(target=func,args=(c,i))

t.start()

条件锁1

上面的例子每次只会释放一个线程。

importthreadingdefrun(n):

con.acquire()

con.wait()#Wait until notified or until a timeout occurs

print('run this threading %s'%n)

con.release()if __name__ == '__main__':

con=threading.Condition()for i in range(10):

t= threading.Thread(target=run,args=(i,))

t.start()whileTrue:

inp= input('>>>')if inp =='q':breakcon.acquire()

con.notify(int(inp))#根据条件唤醒一个到多个线程,如果线程之前没有处于acquire的Lock状态,则报错

#RuntimeError: cannot notify on un-acquired lock

con.release()

条件锁2

定时器(Timer)

指定程序在多长时间后执行某项操作

from threading importTimerdefhello():print('hello')

t=Timer(1,hello) #延迟1s后执行

t.start()

定时器

全局解释器锁GIL(摘自刘江大哥博客)

既然介绍了多线程和线程锁,那就不得不提及python的GIL,也就是全局解释器锁。在编程语言的世界,python因为GIL的问题广受诟病,因为它在解释器的层面限制了程序在同一时间只有一个线程被CPU实际执行,而不管你的程序里实际开了多少条线程。所以我们经常能发现,python中的多线程编程有时候效率还不如单线程,就是因为这个原因。那么,对于这个GIL,一些普遍的问题如下:

每种编程语言都有GIL吗?

以python官方Cpython解释器为代表....其他语言好像未见。

为什么要有GIL?

作为解释型语言,Python的解释器必须做到既安全又高效。我们都知道多线程编程会遇到的问题。解释器要留意的是避免在不同的线程操作内部共享的数据。同时它还要保证在管理用户线程时总是有最大化的计算资源。那么,不同线程同时访问时,数据的保护机制是怎样的呢?答案是解释器全局锁GIL。GIL对诸如当前线程状态和为垃圾回收而用的堆分配对象这样的东西的访问提供着保护。

为什么不能去掉GIL?

首先,在早期的python解释器依赖较多的全局状态,传承下来,使得想要移除当今的GIL变得更加困难。其次,对于程序员而言,仅仅是想要理解它的实现就需要对操作系统设计、多线程编程、C语言、解释器设计和CPython解释器的实现有着非常彻底的理解。

在1999年,针对Python1.5,一个“freethreading”补丁已经尝试移除GIL,用细粒度的锁来代替。然而,GIL的移除给单线程程序的执行速度带来了一定的负面影响。当用单线程执行时,速度大约降低了40%。虽然使用两个线程时在速度上得到了提高,但这个提高并没有随着核数的增加而线性增长。因此这个补丁没有被采纳。

另外,在python的不同解释器实现中,如PyPy就移除了GIL,其执行速度更快(不单单是去除GIL的原因)。然而,我们通常使用的CPython占有着统治地位的使用量,所以,你懂的。

在Python 3.2中实现了一个新的GIL,并且带着一些积极的结果。这是自1992年以来,GIL的一次最主要改变。旧的GIL通过对Python指令进行计数来确定何时放弃GIL。在新的GIL实现中,用一个固定的超时时间来指示当前的线程以放弃这个锁。在当前线程保持这个锁,且当第二个线程请求这个锁的时候,当前线程就会在5ms后被强制释放掉这个锁(这就是说,当前线程每5ms就要检查其是否需要释放这个锁)。当任务是可行的时候,这会使得线程间的切换更加可预测。

GIL对我们有什么影响?

最大的影响是我们不能随意使用多线程。要区分任务场景。

在单核cpu情况下对性能的影响可以忽略不计,多线程多进程都差不多。在多核CPU时,多线程效率较低。GIL对单进程和多进程没有影响。

在实际使用中有什么好的建议?

建议在IO密集型任务中使用多线程,在计算密集型任务中使用多进程。深入研究python的协程机制,你会有惊喜的。

关于GIL,发现一个比较有意思的文章

二、队列

队列是一种规整的数据结构,和后进先出的堆栈不同,队列是一种先进先出的结构,就像一根管子,最先进去的数据也最先被得到。但是在Python中,提供一个queue模块,不仅可以实现普通队列,还提供几种特殊的队列。

queue.Queue :先进先出队列

queue.LifoQueue :后进先出队列

queue.PriorityQueue :优先级队列

queue.deque :双向队列

Queue:先进先出队列

importqueue

q= queue.Queue(5)#定义最大元素个数

q.put(11)

q.put(22)

q.put(33)print(q.get())print(q.get())print(q.get())

Queue

Queue类的方法:

maxsize 队列的最大元素个数,也就是queue.Queue(5)中的5。当队列内的元素达到这个值时,后来的元素默认会阻塞,等待队列腾出位置。

def__init__(self, maxsize=0):self.maxsize = maxsize

self._init(maxsize)

qsize() 获取当前队列中元素的个数,也就是队列的大小

empty() 判断当前队列是否为空,返回True或者False

full() 判断当前队列是否已满,返回True或者False

put(self, block=True, timeout=None)

往队列里放一个元素,默认是阻塞和无时间限制的。如果,block设置为False,则不阻塞,这时,如果队列是满的,放不进去,就会弹出异常。如果timeout设置为n秒,则会等待这个秒数后才put,如果put不进去则弹出异常。

get(self, block=True, timeout=None)

从队列里获取一个元素。参数和put是一样的意思。

join() 阻塞进程,直到所有任务完成,需要配合另一个方法task_done。

def join(self):with self.all_tasks_done:

while self.unfinished_tasks:

self.all_tasks_done.wait()

task_done() 表示某个任务完成。每一条get语句后需要一条task_done。

import queue

q = queue.Queue(5)

q.put(11)

q.put(22)

print(q.get())

q.task_done()

print(q.get())

q.task_done()

q.join()

LifoQueue:后进先出队列

importqueue

q=queue.LifoQueue()

q.put(123)

q.put(456)print(q.get())

LifoQueue

PriorityQueue:优先级队列

每个元素都是一个元组,第一位表示优先级,数字越小优先级越高。同样优先级则先进先出

q =queue.PriorityQueue()

q.put((1,"zhang1"))

q.put((1,"zhang2"))

q.put((1,"zhang3"))

q.put((3,"zhang3"))print(q.get())

PriorityQueue

deque:双向队列

双向队列两个方向都可以进出,取数时也可以两个方向取,注意pop是从右开始取数,popleft从左开始取数

q =queue.deque()

q.append(11)

q.append(22)

q.appendleft(33)

q.appendleft(44)print(q.popleft())print(q.popleft())print(q.pop())print(q.pop())

q.append(55)

deque

生产者消费者模型

在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。

为什么要使用生产者和消费者模式

在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。生产者消费者模式还需要一个缓冲区,来存放生产者产生的数据,消费者从缓冲区中取数据。缓冲区的存在降低了生产者和消费者之间的耦合度。

什么是生产者消费者模式

生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

这个阻塞队列就是用来给生产者和消费者解耦的。纵观大多数设计模式,都会找一个第三者出来进行解耦,如工厂模式的第三者是工厂类,模板模式的第三者是模板类。在学习一些设计模式的过程中,如果先找到这个模式的第三者,能帮助我们快速熟悉一个设计模式。

-------摘自《聊聊并发——生产者消费者模式》

下面看一个简单的例子:

#!/use/bin/env python

#_*_ coding:utf_8 _*_

import time

import queue

import threading

q = queue.Queue(10)

def productor(i):

while True:

q.put('开工,生产%s个'%i)

time.sleep(1)

def consumer(k):

while True:

print('%s,消费%s'%(q.get(),k))

time.sleep(2)

for i in range(3):

t= threading.Thread(target=productor,args=(i,))

t.start()

for k in range(10):

v = threading.Thread(target=consumer,args=(k,))

v.start()

线程池

上面讲了多线程的使用方法,可以看出,适当使用多线程可以提高任务的执行效率,但线程并不是越多越好。因为每个线程执行的时候要独占执行空间,线程与线程之间切换的时候会依赖上下文环境造成CPU的开销,因此并不能无限的创建多线程。线程池的概念便应运而生,预先设定好可创建的线程数量,任务来了便执行线程,线程池空了的话等待即可。就像一个房门门口挂着5把钥匙,每个人取走钥匙,通过门之后把门在锁上,办完事在回来把钥匙还了。当钥匙全部取走后后来的人只能等待。python不提供线程池,如果想要使用,则要自己创建或者使用第三方模块。

#!/usr/bin/env python#-*- coding:utf-8 -*-

importqueueimportthreadingimporttimeclassThreadPool:def __init__(self, maxsize=5):

self.maxsize=maxsize

self._q=queue.Queue(maxsize)for i inrange(maxsize):

self._q.put(threading.Thread)#【threading.Thread,threading.Thread,threading.Thread,threading.Thread,threading.Thread】得到线程类

defget_thread(self):returnself._q.get()defadd_thread(self):

self._q.put(threading.Thread)

pool= ThreadPool(5)deftask(arg,p):print(arg)#print(threading.current_thread())

print(threading.currentThread()) #源码中写道currentThread = current_thread,这两个命令效果是一样的。

time.sleep(1)

p.add_thread()#在方法执行完之后将新线程加入线程池

for i in range(100):

t= pool.get_thread()#threading.Thread类

obj = t(target=task,args=(i,pool,))

obj.start()

线程池1.0

这是个比较low的线程池,预先开辟5个线程空间,不考虑实际环境,而且使用过的线程并没有被回收,看一下执行结果便清楚了。

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

#提前中断,原循环为100个

线程池1.0执行结果

下面是武sir提供的一个较好的线程池

#!/usr/bin/env python#-*- coding:utf-8 -*-#Author:Alex Li

importqueueimportthreadingimportcontextlibimporttime

StopEvent= object() #设置终止符,可以为None

classThreadPool(object):def __init__(self, max_num, max_task_num =None):ifmax_task_num:

self.q= queue.Queue(max_task_num) #max_task_num指定可以接收到的任务

else:

self.q=queue.Queue()

self.max_num=max_num

self.cancel=False

self.terminal=False

self.generate_list= [] #当前创建的线程

self.free_list = [] #当前空闲的线程

def run(self, func, args, callback=None):"""线程池执行一个任务

:param func: 任务函数

:param args: 任务函数所需参数

:param callback: 任务执行失败或成功后执行的回调函数,回调函数有两个参数1、任务函数执行状态;2、任务函数返回值(默认为None,即:不执行回调函数)

:return: 如果线程池已经终止,则返回True否则None"""

ifself.cancel:return

if len(self.free_list) == 0 and len(self.generate_list) < self.max_num: #判断创建线程的条件,没有空线程并且当前线程小于要执行的任务总数。

self.generate_thread()

w= (func, args, callback,) #将参数放在元组中,把元组当做整体的任务放在队列中

self.q.put(w)defgenerate_thread(self):"""创建一个线程"""t= threading.Thread(target=self.call)

t.start()defcall(self):"""循环去获取任务函数并执行任务函数"""current_thread=threading.currentThread

self.generate_list.append(current_thread)

event= self.q.get() #取任务

while event !=StopEvent:

func, arguments, callback=eventtry:

result= func(*arguments)

success=TrueexceptException as e:

success=False

result=Noneif callback is notNone:try:

callback(success, result)exceptException as e:passwith self.worker_state(self.free_list, current_thread):#执行完action后判断当前任务状态。

ifself.terminal:

event= StopEvent #没有任务后赋予控制,释放线程

else:

event= self.q.get() #取新任务

else:

self.generate_list.remove(current_thread)defclose(self):"""执行完所有的任务后,所有线程停止"""self.cancel=True

full_size=len(self.generate_list)whilefull_size:

self.q.put(StopEvent)

full_size-= 1

defterminate(self):"""无论是否还有任务,终止线程"""self.terminal=Truewhileself.generate_list:

self.q.put(StopEvent)

self.q.empty()

@contextlib.contextmanagerdefworker_state(self, state_list, worker_thread):"""用于记录线程中正在等待的线程数"""state_list.append(worker_thread)try:yield

finally:

state_list.remove(worker_thread)

pool= ThreadPool(5)defcallback(status, result):#status, execute action status

#result, execute action return value

pass

defaction(i):print(i)for i in range(300):

ret=pool.run(action, (i,), callback)#time.sleep(5)#print(len(pool.generate_list), len(pool.free_list))#print(len(pool.generate_list), len(pool.free_list))

线程池2.0

进程

python的multiprocess模块提供了Process类,实现进程相关的功能。

由于它是基于fork机制的,因此不被windows平台支持。想要在windows中运行,必须使用if __name__ == '__main__:的方式,显然这只能用于调试和学习,不能用于实际环境。

下面是一个简单的多进程例子,可以发现Process的用法和Thread的用法几乎一模一样。

from multiprocessing import Process

def foo(i):

print("This is Process ", i)

if __name__ == '__main__':

for i in range(5):

p = Process(target=foo, args=(i,))

p.start()

进程的数据共享

每个进程都有自己独立的数据空间,不同进程之间通常是不能共享数据,创建一个进程需要非常大的开销。

from multiprocessing import Process

list_1 = []

def foo(i):

list_1.append(i)

print("This is Process ", i," and list_1 is ", list_1)

if __name__ == '__main__':

for i in range(5):

p = Process(target=foo, args=(i,))

p.start()

print("The end of list_1:", list_1)

运行上面的代码,可以发现列表list_1在各个进程中只有自己的数据,完全无法共享。

想要进程之间进行资源共享可以使用queues/Array/Manager这三个multiprocess模块提供的类。

使用Array共享数据

from multiprocessing importProcessfrom multiprocessing importArraydefFoo(i,temp):

temp[0]+= 100

for item intemp:print(i,'----->',item)if __name__ == '__main__':

temp= Array('i', [11, 22, 33, 44])for i in range(2):

p= Process(target=Foo, args=(i,temp))

p.start()

View Code

对于Array数组类,括号内的“i”表示它内部的元素全部是int类型,而不是指字符i,列表内的元素可以预先指定,也可以指定列表长度。概括的来说就是Array类在实例化的时候就必须指定数组的数据类型和数组的大小,类似temp = Array('i', 5)。对于数据类型有下面的表格对应:

'c': ctypes.c_char, 'u': ctypes.c_wchar,

'b': ctypes.c_byte, 'B': ctypes.c_ubyte,

'h': ctypes.c_short, 'H': ctypes.c_ushort,

'i': ctypes.c_int, 'I': ctypes.c_uint,

'l': ctypes.c_long, 'L': ctypes.c_ulong,

'f': ctypes.c_float, 'd': ctypes.c_double

使用Manager共享数据

from multiprocessing importProcess,ManagerdefFoo(i,dic):

dic[i]= 100+iprint(dic.values())if __name__ == '__main__':

manage=Manager()

dic=manage.dict()for i in range(10):

p= Process(target=Foo, args=(i,dic))

p.start()

p.join()

View Code

Manager比Array要好用一点,因为它可以同时保存多种类型的数据格式。

使用queues的Queue类共享数据

importmultiprocessingfrom multiprocessing importProcessfrom multiprocessing importqueuesdeffoo(i,arg):

arg.put(i)print('The Process is', i, "and the queue's size is", arg.qsize())if __name__ == "__main__":

li= queues.Queue(20, ctx=multiprocessing)for i in range(10):

p= Process(target=foo, args=(i,li,))

p.start()

View Code

这里就有点类似上面的队列了。但是会产生脏数据

既然涉及到进程间资源共享,进程之间肯定会有脏数据的产生,在进程中也设置了进程锁,和线程锁的使用方法一样:

from multiprocessing importProcessfrom multiprocessing importqueuesfrom multiprocessing importArrayfrom multiprocessing importRLock, Lock, Event, Condition, Semaphoreimportmultiprocessingimporttimedeffoo(i,lis,lc):

lc.acquire()

lis[0]= lis[0] - 1time.sleep(1)print('say hi',lis[0])

lc.release()if __name__ == "__main__":#li = []

li = Array('i', 1)

li[0]= 10lock=RLock()for i in range(10):

p= Process(target=foo,args=(i,li,lock))

p.start()

进程锁

同样的,进程也有进程池的概念,不过python中提供了进程池,只需from multiprocessing import Pool即可

#!/usr/bin/env python#-*- coding:utf-8 -*-

from multiprocessing importPoolimporttimedeff1(args):

time.sleep(1)print(args)if __name__ == '__main__':

p= Pool(5)for i in range(30):

p.apply_async(func=f1, args=(i,))

p.close()#等子进程执行完毕后关闭进程池

#time.sleep(2)

#p.terminate() # 立刻关闭进程池

p.join()

进程池

进程池内部维护一个进程序列,当使用时,去进程池中获取一个进程,如果进程池序列中没有可供使用的进程,那么程序就会等待,直到进程池中有可用进程为止。

进程池中有以下几个主要方法:

apply:从进程池里取一个进程并执行

apply_async:apply的异步版本

terminate:立刻关闭进程池

join:主进程等待所有子进程执行完毕。必须在close或terminate之后。

close:等待所有进程结束后,才关闭进程池。

ps:IO密集型操作用线程,CPU密集型操作用进程,协程也适合处理IO密集型操作。

协程

线程和进程的操作是由程序触发系统接口,最后的执行者是系统。而协程的操作则是程序员指定的,人为的实现并发处理。

协程存在的意义:对于多线程应用,CPU通过切片的方式来切换线程间的执行,线程切换时需要耗时。协程,则只使用一个线程,分解一个线程成为多个“微线程”,在一个线程中规定某个代码块的执行顺序。

协程的适用场景:当程序中存在大量不需要CPU的操作时(IO)。

有第三方模块为我们提供了协程,在使用它们之前,需要先安装。这里介绍一下greenlet和gevent。本质上,gevent是对greenlet的高级封装,因此一般用它就行,这是一个相当高效的模块。

3.1 greenlet

from greenlet importgreenletdeftest1():print(12)

gr2.switch()print(34)

gr2.switch()deftest2():print(56)

gr1.switch()print(78)

gr1=greenlet(test1)

gr2=greenlet(test2)

gr1.switch()

greenlet

实际上,greenlet就是通过switch方法在不同的任务之间进行切换。

3.2 gevent

from gevent importmonkey; monkey.patch_all()importgeventimportrequestsdeff(url):print('GET: %s' %url)

resp=requests.get(url)

data=resp.textprint('%d bytes received from %s.' %(len(data), url))

gevent.joinall([

gevent.spawn(f,'https://www.python.org/'),

gevent.spawn(f,'https://www.yahoo.com/'),

gevent.spawn(f,'https://github.com/'),

])

gevent

通过joinall将任务f和它的参数进行统一调度,实现单线程中的协程。代码封装层次很高,实际使用只需要了解它的几个主要方法即可。

文章引自http://www.cnblogs.com/feixuelove1009/p/5683159.html,尊重原创,内容有更改。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值