一 threading模块介绍
multiprocess模块的完全模仿了threading模块的接口,二者在使用层面,有很大的相似性,因而不再详细介绍
thread模块
python不推荐使用这个模块,推荐更高级的threading。
thread模块和对象
函数 描述
start_new_thread(function,args) 产生新线程,指定函数和参数
allocate_lock() 分配一个LockType类型的锁对象
exit() 线程退出
LockType对象的方法
acquire() 尝试获取对象对象
locked 如果获取了返回True否则返回False
release() 释放锁
thread.py#coding:utf-8
importthreadfrom time importsleep,ctime
loops=[4,2]#睡眠时间
defloop(nloop,nsec,lock):print 'start loop',nloop,'at:',ctime()
sleep(nsec)print 'loop',nloop,'done at:',ctime()
lock.release()#释放锁对象
defmain():print 'starting at :',ctime()
locks=[]
nloops=range(len(loops))#创建nloops数组
#创建锁并加入组
for i innloops:
lock=thread.allocate_lock()#创建 lock (不能直接加入)
lock.acquire()#尝试获取lock
locks.append(lock)#加入组
for i innloops:
thread.start_new_thread(loop,(i,loops[i],locks[i]))#创建线程
#获取锁对象 成功True 失败False
for i innloops:while locks[i].locked():pass#如果锁对象被释放 表示解锁了 可以继续执行
print 'all DONE at:',ctime()if __name__ == '__main__':
main()
thread模块
threading模块中的Thread类有很多thread模块里没有的方法,
一般使用时可以选择几种方法里的一种:
创建一个Thread实例,传给它一个函数;
创建一个Thread实例,传给它一个可调用的类对象;
从Thread派生一个子类,创建这个子类的实例。
可以看看它有哪些方法
函数 描述
start() 开始线程的执行
run() 定义线程的功能的函数(一般会被子类重写)
join(timeout=None) 程序挂起,知道线程结束,如果给了timeout,最多阻塞timeout秒
getName() 返回线程的名字
setName(name) 设置线程的名字
isAlive() 布尔标志,表示这个线程是否还在运行中
isDaemon() 返回线程的daemon标志
setDaemon(daemonic) 把线程的daemon标志设置成daemonic
用threading模块重写我们上次的例子:importthreadingfrom time importsleep, ctime
loops= [4, 2]defloop(nloop, nsec):print 'start loop%s at: %s\n' %(nloop, ctime()),
sleep(nsec)print 'loop%s done at: %s\n' %(nloop, ctime()),defmain():print 'starting at: %s\n' %ctime(),
threads=[]
nloops=range(len(loops))for i innloops:
t= threading.Thread(target =loop,
args=(i,loops[i]))
threads.append(t)for i innloops:
threads[i].start()for i innloops:
threads[i].join()print 'all DONE at: %s\n' %ctime(),if __name__ == '__main__':
main()
threading模块
二 开启线程的两种方式
#方式一
from threading importThreadimporttimedefsayhi(name):
time.sleep(2)print('%s say hello' %name)if __name__ == '__main__':
t=Thread(target=sayhi,args=('egon',))
t.start()print('主线程')
方式一
方式一
#方式二
from threading importThreadimporttimeclassSayhi(Thread):def __init__(self,name):
super().__init__()
self.name=namedefrun(self):
time.sleep(2)print('%s say hello' %self.name)if __name__ == '__main__':
t= Sayhi('egon')
t.start()print('主线程')
方式二
方式二
三 在一个进程下开启多个线程与在一个进程下开启多个子进程的区别
from threading importThreadfrom multiprocessing importProcessimportosdefwork():print('hello')if __name__ == '__main__':#在主进程下开启线程
t=Thread(target=work)
t.start()print('主线程/主进程')'''打印结果:
hello
主线程/主进程'''
#在主进程下开启子进程
t=Process(target=work)
t.start()print('主线程/主进程')'''打印结果:
主线程/主进程
hello'''谁的开启速度快
谁的开启速度快
from threading importThreadfrom multiprocessing importProcessimportosdefwork():print('hello',os.getpid())if __name__ == '__main__':#part1:在主进程下开启多个线程,每个线程都跟主进程的pid一样
t1=Thread(target=work)
t2=Thread(target=work)
t1.start()
t2.start()print('主线程/主进程pid',os.getpid())#part2:开多个进程,每个进程都有不同的pid
p1=Process(target=work)
p2=Process(target=work)
p1.start()
p2.start()print('主线程/主进程pid',os.getpid())
瞅一瞅pid
pid
from threading importThreadfrom multiprocessing importProcessimportosdefwork():globaln
n=0if __name__ == '__main__':#n=100
#p=Process(target=work)
#p.start()
#p.join()
#print('主',n) #毫无疑问子进程p已经将自己的全局的n改成了0,但改的仅仅是它自己的,查看父进程的n仍然为100
n=1t=Thread(target=work)
t.start()
t.join()print('主',n) #查看结果为0,因为同一进程内的线程之间共享进程内的数据
同一进程内的线程共享该进程的数据?
同一进程内的线程共享该进程的数据?
四 练习
练习一:
#_*_coding:utf-8_*_#!/usr/bin/env python
importmultiprocessingimportthreadingimportsocket
s=socket.socket(socket.AF_INET,socket.SOCK_STREAM)
s.bind(('127.0.0.1',8080))
s.listen(5)defaction(conn):whileTrue:
data=conn.recv(1024)print(data)
conn.send(data.upper())if __name__ == '__main__':whileTrue:
conn,addr=s.accept()
p=threading.Thread(target=action,args=(conn,))
p.start()
多线程并发的socket服务端
多线程并发的socket服务端
#_*_coding:utf-8_*_#!/usr/bin/env python
importsocket
s=socket.socket(socket.AF_INET,socket.SOCK_STREAM)
s.connect(('127.0.0.1',8080))whileTrue:
msg=input('>>:').strip()if not msg:continues.send(msg.encode('utf-8'))
data=s.recv(1024)print(data)
客户端
客户端
练习二:三个任务,一个接收用户输入,一个将用户输入的内容格式化成大写,一个将格式化后的结果存入文件
from threading importThread
msg_l=[]
format_l=[]deftalk():whileTrue:
msg=input('>>:').strip()if not msg:continuemsg_l.append(msg)defformat_msg():whileTrue:ifmsg_l:
res=msg_l.pop()
format_l.append(res.upper())defsave():whileTrue:ifformat_l:
with open('db.txt','a',encoding='utf-8') as f:
res=format_l.pop()
f.write('%s\n' %res)if __name__ == '__main__':
t1=Thread(target=talk)
t2=Thread(target=format_msg)
t3=Thread(target=save)
t1.start()
t2.start()
t3.start()
View Code
五 线程相关的其他方法
Thread实例对象的方法
# isAlive(): 返回线程是否活动的。
# getName(): 返回线程名。
# setName(): 设置线程名。
threading模块提供的一些方法:
# threading.currentThread(): 返回当前的线程变量。
# threading.enumerate(): 返回一个包含正在运行的线程的list。正在运行指线程启动后、结束前,不包括启动前和终止后的线程。
# threading.activeCount(): 返回正在运行的线程数量,与len(threading.enumerate())有相同的结果。
from threading importThreadimportthreadingfrom multiprocessing importProcessimportosdefwork():importtime
time.sleep(3)print(threading.current_thread().getName())if __name__ == '__main__':#在主进程下开启线程
t=Thread(target=work)
t.start()print(threading.current_thread().getName())print(threading.current_thread()) #主线程
print(threading.enumerate()) #连同主线程在内有两个运行的线程
print(threading.active_count())print('主线程/主进程')'''打印结果:
MainThread
[<_mainthread started>, ]
主线程/主进程
Thread-1'''
View Code
主线程等待子线程结束
from threading import Thread
import time
def sayhi(name):
time.sleep(2)
print('%s say hello' %name)
if __name__ == '__main__':
t=Thread(target=sayhi,args=('egon',))
t.start()
t.join()
print('主线程')
print(t.is_alive())
'''
egon say hello
主线程
False
'''
六 守护线程
无论是进程还是线程,都遵循:守护xxx会等待主xxx运行完毕后被销毁
需要强调的是:运行完毕并非终止运行
#1.对主进程来说,运行完毕指的是主进程代码运行完毕
#2.对主线程来说,运行完毕指的是主线程所在的进程内所有非守护线程统统运行完毕,主线程才算运行完毕
详细解释:
#1 主进程在其代码结束后就已经算运行完毕了(守护进程在此时就被回收),然后主进程会一直等非守护的子进程都运行完毕后回收子进程的资源(否则会产生僵尸进程),才会结束,
#2 主线程在其他非守护线程运行完毕后才算运行完毕(守护线程在此时就被回收)。因为主线程的结束意味着进程的结束,进程整体的资源都将被回收,而进程必须保证非守护线程都运行完毕后才能结束。
from threading import Thread
import time
def sayhi(name):
time.sleep(2)
print('%s say hello' %name)
if __name__ == '__main__':
t=Thread(target=sayhi,args=('egon',))
t.setDaemon(True) #必须在t.start()之前设置
t.start()
print('主线程')
print(t.is_alive())
'''
主线程
True
'''
from threading importThreadimporttimedeffoo():print(123)
time.sleep(1)print("end123")defbar():print(456)
time.sleep(3)print("end456")
t1=Thread(target=foo)
t2=Thread(target=bar)
t1.daemon=True
t1.start()
t2.start()print("main-------")
迷惑人的例子
迷惑人的例子
七 Python GIL(Global Interpreter Lock)
八 同步锁
三个需要注意的点:
#1.线程抢的是GIL锁,GIL锁相当于执行权限,拿到执行权限后才能拿到互斥锁Lock,其他线程也可以抢到GIL,但如果发现Lock仍然没有被释放则阻塞,即便是拿到执行权限GIL也要立刻交出来
#2.join是等待所有,即整体串行,而锁只是锁住修改共享数据的部分,即部分串行,要想保证数据安全的根本原理在于让并发变成串行,join与互斥锁都可以实现,毫无疑问,互斥锁的部分串行效率要更高
#3. 一定要看本小节最后的GIL与互斥锁的经典分析
GIL VS Lock
机智的同学可能会问到这个问题,就是既然你之前说过了,Python已经有一个GIL来保证同一时间只能有一个线程来执行了,为什么这里还需要lock?
首先我们需要达成共识:锁的目的是为了保护共享的数据,同一时间只能有一个线程来修改共享的数据
然后,我们可以得出结论:保护不同的数据就应该加不同的锁。
最后,问题就很明朗了,GIL 与Lock是两把锁,保护的数据不一样,前者是解释器级别的(当然保护的就是解释器级别的数据,比如垃圾回收的数据),后者是保护用户自己开发的应用程序的数据,很明显GIL不负责这件事,只能用户自定义加锁处理,即Lock
过程分析:所有线程抢的是GIL锁,或者说所有线程抢的是执行权限
线程1抢到GIL锁,拿到执行权限,开始执行,然后加了一把Lock,还没有执行完毕,即线程1还未释放Lock,有可能线程2抢到GIL锁,开始执行,执行过程中发现Lock还没有被线程1释放,于是线程2进入阻塞,被夺走执行权限,有可能线程1拿到GIL,然后正常执行到释放Lock。。。这就导致了串行运行的效果
既然是串行,那我们执行
t1.start()
t1.join
t2.start()
t2.join()
这也是串行执行啊,为何还要加Lock呢,需知join是等待t1所有的代码执行完,相当于锁住了t1的所有代码,而Lock只是锁住一部分操作共享数据的代码。
因为Python解释器帮你自动定期进行内存回收,你可以理解为python解释器里有一个独立的线程,每过一段时间它起wake up做一次全局轮询看看哪些内存数据是可以被清空的,
此时你自己的程序里的线程和 py解释器自己的线程是并发运行的,
假设你的线程删除了一个变量,py解释器的垃圾回收线程在清空这个变量的过程中的clearing时刻,可能一个其它线程正好又重新给这个还没来及得清空的内存空间赋值了,
结果就有可能新赋值的数据被删除了。
为了解决类似的问题,python解释器简单粗暴的加了锁,即当一个线程运行时,其它人都不能动,这样就解决了上述的问题, 这可以说是Python早期版本的遗留问题。
from threading import Thread
import os,time
def work():
global n
temp=n
time.sleep(0.1)
n=temp-1
if __name__ == '__main__':
n=100
l=[]
for i in range(100):
p=Thread(target=work)
l.append(p)
p.start()
for p in l:
p.join()
print(n) #结果可能为99
锁通常被用来实现对共享资源的同步访问。为每一个共享资源创建一个Lock对象,当你需要访问该资源时,调用acquire方法来获取锁对象(如果其它线程已经获得了该锁,则当前线程需等待其被释放),待资源访问完后,再调用release方法释放锁:
from threading importThread,Lockimportos,timedefwork():globaln
lock.acquire()
temp=n
time.sleep(0.1)
n=temp-1lock.release()if __name__ == '__main__':
lock=Lock()
n=100l=[]for i in range(100):
p=Thread(target=work)
l.append(p)
p.start()for p inl:
p.join()print(n) #结果肯定为0,由原来的并发执行变成串行,牺牲了执行效率保证了数据安全
分析:#1.100个线程去抢GIL锁,即抢执行权限
#2. 肯定有一个线程先抢到GIL(暂且称为线程1),然后开始执行,一旦执行就会拿到lock.acquire()
#3. 极有可能线程1还未运行完毕,就有另外一个线程2抢到GIL,然后开始运行,但线程2发现互斥锁lock还未被线程1释放,于是阻塞,被迫交出执行权限,即释放GIL
#4.直到线程1重新抢到GIL,开始从上次暂停的位置继续执行,直到正常释放互斥锁lock,然后其他的线程再重复2 3 4的过程
GIL锁与互斥锁综合分析(重点!!!)
互斥锁与join的区别:#不加锁:并发执行,速度快,数据不安全
from threading importcurrent_thread,Thread,Lockimportos,timedeftask():globalnprint('%s is running' %current_thread().getName())
temp=n
time.sleep(0.5)
n=temp-1
if __name__ == '__main__':
n=100lock=Lock()
threads=[]
start_time=time.time()for i in range(100):
t=Thread(target=task)
threads.append(t)
t.start()for t inthreads:
t.join()
stop_time=time.time()print('主:%s n:%s' %(stop_time-start_time,n))'''Thread-1 is running
Thread-2 is running
......
Thread-100 is running
主:0.5216062068939209 n:99'''
#不加锁:未加锁部分并发执行,加锁部分串行执行,速度慢,数据安全
from threading importcurrent_thread,Thread,Lockimportos,timedeftask():#未加锁的代码并发运行
time.sleep(3)print('%s start to run' %current_thread().getName())globaln#加锁的代码串行运行
lock.acquire()
temp=n
time.sleep(0.5)
n=temp-1lock.release()if __name__ == '__main__':
n=100lock=Lock()
threads=[]
start_time=time.time()for i in range(100):
t=Thread(target=task)
threads.append(t)
t.start()for t inthreads:
t.join()
stop_time=time.time()print('主:%s n:%s' %(stop_time-start_time,n))'''Thread-1 is running
Thread-2 is running
......
Thread-100 is running
主:53.294203758239746 n:0'''
#有的同学可能有疑问:既然加锁会让运行变成串行,那么我在start之后立即使用join,就不用加锁了啊,也是串行的效果啊#没错:在start之后立刻使用jion,肯定会将100个任务的执行变成串行,毫无疑问,最终n的结果也肯定是0,是安全的,但问题是#start后立即join:任务内的所有代码都是串行执行的,而加锁,只是加锁的部分即修改共享数据的部分是串行的#单从保证数据安全方面,二者都可以实现,但很明显是加锁的效率更高.
from threading importcurrent_thread,Thread,Lockimportos,timedeftask():
time.sleep(3)print('%s start to run' %current_thread().getName())globaln
temp=n
time.sleep(0.5)
n=temp-1
if __name__ == '__main__':
n=100lock=Lock()
start_time=time.time()for i in range(100):
t=Thread(target=task)
t.start()
t.join()
stop_time=time.time()print('主:%s n:%s' %(stop_time-start_time,n))'''Thread-1 start to run
Thread-2 start to run
......
Thread-100 start to run
主:350.6937336921692 n:0 #耗时是多么的恐怖'''互斥锁与join的区别(重点!!!)
import threading
R=threading.Lock()
R.acquire()
'''
对公共数据的操作
'''
R.release()
九 死锁现象与递归锁
进程也有死锁与递归锁。
所谓死锁: 是指两个或两个以上的进程或线程在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去。
此时称系统处于死锁状态或系统产生了死锁,这些永远在互相等待的进程称为死锁进程,如下就是死锁
from threading importThread,Lockimporttime
mutexA=Lock()
mutexB=Lock()classMyThread(Thread):defrun(self):
self.func1()
self.func2()deffunc1(self):
mutexA.acquire()print('\033[41m%s 拿到A锁\033[0m' %self.name)
mutexB.acquire()print('\033[42m%s 拿到B锁\033[0m' %self.name)
mutexB.release()
mutexA.release()deffunc2(self):
mutexB.acquire()print('\033[43m%s 拿到B锁\033[0m' %self.name)
time.sleep(2)
mutexA.acquire()print('\033[44m%s 拿到A锁\033[0m' %self.name)
mutexA.release()
mutexB.release()if __name__ == '__main__':for i in range(10):
t=MyThread()
t.start()'''Thread-1 拿到A锁
Thread-1 拿到B锁
Thread-1 拿到B锁
Thread-2 拿到A锁
然后就卡住,死锁了'''
死锁
解决方法,递归锁,在Python中为了支持在同一线程中多次请求同一资源,python提供了可重入锁RLock。
这个RLock内部维护着一个Lock和一个counter变量,counter记录了acquire的次数,从而使得资源可以被多次require。
直到一个线程所有的acquire都被release,其他的线程才能获得资源。上面的例子如果使用RLock代替Lock,则不会发生死锁:
mutexA=mutexB=threading.RLock()
#一个线程拿到锁,counter加1,该线程内又碰到加锁的情况,则counter继续加1,这期间所有其他线程都只能等待,等待该线程释放所有锁,即counter递减到0为止
十 信号量Semaphore
同进程的一样
Semaphore管理一个内置的计数器,
每当调用acquire()时内置计数器-1;
调用release() 时内置计数器+1;
计数器不能小于0;当计数器为0时,acquire()将阻塞线程直到其他线程调用release()。
实例:(同时只有5个线程可以获得semaphore,即可以限制最大连接数为5):
from threading importThread,Semaphoreimportthreadingimporttime#def func():#if sm.acquire():#print (threading.currentThread().getName() + ' get semaphore')#time.sleep(2)#sm.release()
deffunc():
sm.acquire()print('%s get sm' %threading.current_thread().getName())
time.sleep(3)
sm.release()if __name__ == '__main__':
sm=Semaphore(5)for i in range(23):
t=Thread(target=func)
t.start()
View Code
与进程池是完全不同的概念,进程池Pool(4),最大只能产生4个进程,而且从头到尾都只是这四个进程,不会产生新的,而信号量是产生一堆线程/进程
十一 Event
同进程的一样
线程的一个关键特性是每个线程都是独立运行且状态不可预测。如果程序中的其 他线程需要通过判断某个线程的状态来确定自己下一步的操作,这时线程同步问题就会变得非常棘手。为了解决这些问题,我们需要使用threading库中的Event对象。 对象包含一个可由线程设置的信号标志,它允许线程等待某些事件的发生。在 初始情况下,Event对象中的信号标志被设置为假。如果有线程等待一个Event对象, 而这个Event对象的标志为假,那么这个线程将会被一直阻塞直至该标志为真。一个线程如果将一个Event对象的信号标志设置为真,它将唤醒所有等待这个Event对象的线程。如果一个线程等待一个已经被设置为真的Event对象,那么它将忽略这个事件, 继续执行
event.isSet():返回event的状态值;
event.wait():如果 event.isSet()==False将阻塞线程;
event.set(): 设置event的状态值为True,所有阻塞池的线程激活进入就绪状态, 等待操作系统调度;
event.clear():恢复event的状态值为False。
例如,有多个工作线程尝试链接MySQL,我们想要在链接前确保MySQL服务正常才让那些工作线程去连接MySQL服务器,如果连接不成功,都会去尝试重新连接。那么我们就可以采用threading.Event机制来协调各个工作线程的连接操作
十二 条件Condition(了解)
使得线程等待,只有满足某条件时,才释放n个线程
import threading
def run(n):
con.acquire()
con.wait()
print("run the thread: %s" %n)
con.release()
if __name__ == '__main__':
con = threading.Condition()
for i in range(10):
t = threading.Thread(target=run, args=(i,))
t.start()
while True:
inp = input('>>>')
if inp == 'q':
break
con.acquire()
con.notify(int(inp))
con.release()
defcondition_func():
ret=False
inp= input('>>>')if inp == '1':
ret=Truereturnretdefrun(n):
con.acquire()
con.wait_for(condition_func)print("run the thread: %s" %n)
con.release()if __name__ == '__main__':
con=threading.Condition()for i in range(10):
t= threading.Thread(target=run, args=(i,))
t.start()
View Code
十三 定时器
定时器,指定n秒后执行某操作
from threading import Timer
def hello():
print("hello, world")
t = Timer(1, hello)
t.start() # after 1 seconds, "hello, world" will be printed
十四 线程queue
queue队列 :使用import queue,用法与进程Queue一样
queue is especially useful in threaded programming when information must be exchanged safely between multiple threads.
classqueue.Queue(maxsize=0) #先进先出
importqueue
q=queue.Queue()
q.put('first')
q.put('second')
q.put('third')print(q.get())print(q.get())print(q.get())'''结果(先进先出):
first
second
third'''
queue.Queue 先进先出
classqueue.LifoQueue(maxsize=0) #last in fisrt out
importqueue
q=queue.LifoQueue()
q.put('first')
q.put('second')
q.put('third')print(q.get())print(q.get())print(q.get())'''结果(后进先出):
third
second
first'''
queue.LifoQueue 后进先出
classqueue.PriorityQueue(maxsize=0) #存储数据时可设置优先级的队列
importqueue
q=queue.PriorityQueue()#put进入一个元组,元组的第一个元素是优先级(通常是数字,也可以是非数字之间的比较),数字越小优先级越高
q.put((20,'a'))
q.put((10,'b'))
q.put((30,'c'))print(q.get())print(q.get())print(q.get())'''结果(数字越小优先级越高,优先级高的优先出队):
(10, 'b')
(20, 'a')
(30, 'c')'''
queue.PriorityQueue put进入一个元组,元组的第一个元素是优先级(通常是数字,也可以是非数字之间的比较),数字越小优先级越高
其他
十五 Python标准模块--concurrent.futures
#1 介绍
concurrent.futures模块提供了高度封装的异步调用接口
ThreadPoolExecutor:线程池,提供异步调用
ProcessPoolExecutor: 进程池,提供异步调用
Both implement the same interface, which is defined by the abstract Executor class.
#2 基本方法
#submit(fn, *args, **kwargs)
异步提交任务
#map(func, *iterables, timeout=None, chunksize=1)
取代for循环submit的操作
#shutdown(wait=True)
相当于进程池的pool.close()+pool.join()操作
wait=True,等待池内所有任务执行完毕回收完资源后才继续
wait=False,立即返回,并不会等待池内的任务执行完毕
但不管wait参数为何值,整个程序都会等到所有任务执行完毕
submit和map必须在shutdown之前
#result(timeout=None)
取得结果
#add_done_callback(fn)
回调函数
ProcessPoolExecutor
ThreadPoolExecutor
map的用法
回调函数
#介绍
The ProcessPoolExecutor class is an Executor subclass that uses a pool of processes to execute calls asynchronously. ProcessPoolExecutor uses the multiprocessing module, which allows it to side-step the Global Interpreter Lock but also means that only picklable objects can be executed andreturned.class concurrent.futures.ProcessPoolExecutor(max_workers=None, mp_context=None)
An Executor subclass that executes calls asynchronously using a pool of at most max_workers processes. If max_workersis None or not given, it will default to the number of processors on the machine. If max_workers is lower orequal to 0, then a ValueError will be raised.#用法
from concurrent.futures importThreadPoolExecutor,ProcessPoolExecutorimportos,time,randomdeftask(n):print('%s is runing' %os.getpid())
time.sleep(random.randint(1,3))return n**2
if __name__ == '__main__':
executor=ProcessPoolExecutor(max_workers=3)
futures=[]for i in range(11):
future=executor.submit(task,i)
futures.append(future)
executor.shutdown(True)print('+++>')for future infutures:print(future.result())
ProcessPoolExecutor
ProcessPoolExecutor
#介绍
ThreadPoolExecutor isan Executor subclass that uses a pool of threads to execute calls asynchronously.class concurrent.futures.ThreadPoolExecutor(max_workers=None, thread_name_prefix='')
An Executor subclass that uses a pool of at most max_workers threads to execute calls asynchronously.
Changedin version 3.5: If max_workers is None or not given, it will default to the number of processors on the machine, multiplied by 5, assuming that ThreadPoolExecutor is often used to overlap I/O instead of CPU work and the number of workers should be higher than the number of workers forProcessPoolExecutor.
Newin version 3.6: The thread_name_prefix argument was added to allow users to control the threading.Thread names for worker threads created by the pool foreasier debugging.#用法
与ProcessPoolExecutor相同
ThreadPoolExecutor
ThreadPoolExecutor
from concurrent.futures importThreadPoolExecutor,ProcessPoolExecutorimportos,time,randomdeftask(n):print('%s is runing' %os.getpid())
time.sleep(random.randint(1,3))return n**2
if __name__ == '__main__':
executor=ThreadPoolExecutor(max_workers=3)#for i in range(11):
#future=executor.submit(task,i)
executor.map(task,range(1,12)) #map取代了for+submit
map的用法
map的用法
from concurrent.futures importThreadPoolExecutor,ProcessPoolExecutorfrom multiprocessing importPoolimportrequestsimportjsonimportosdefget_page(url):print(' get %s' %(os.getpid(),url))
respone=requests.get(url)if respone.status_code == 200:return {'url':url,'text':respone.text}defparse_page(res):
res=res.result()print(' parse %s' %(os.getpid(),res['url']))
parse_res='url: size:[%s]\n' %(res['url'],len(res['text']))
with open('db.txt','a') as f:
f.write(parse_res)if __name__ == '__main__':
urls=['https://www.baidu.com','https://www.python.org','https://www.openstack.org','https://help.github.com/','http://www.sina.com.cn/']#p=Pool(3)
#for url in urls:
#p.apply_async(get_page,args=(url,),callback=pasrse_page)
#p.close()
#p.join()
p=ProcessPoolExecutor(3)for url inurls:
p.submit(get_page,url).add_done_callback(parse_page)#parse_page拿到的是一个future对象obj,需要用obj.result()拿到结果
回调函数
回调函数