守护进程
主进程创建守护进程
其一:守护进程会在主代码执行结束后终止
其二:守护进程无法在其内部开启子进程,否则报错
注:进程之间的运行是相互独立的,主代码执行完,守护进程随即结束
from multiprocessing import Process import time import random class Piao(Process): def __init__(self,name): super().__init__() self.name=name def run(self): print('%s is piaoing'%self.name) time.sleep(random.randrange(1,3)) print('%s is piao end'%self.name) if __name__ == '__main__': p=Piao('egon') p.daemon=True#一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程代码执行结束,p即终止运行 p.start() print('主') #输出结果:主
from multiprocessing import Process import time import random def foo(name): print('%s is piaoing'%name) time.sleep(random.randrange(1,3)) print('%s is piao end'%name) def bar(name): print('%s is piaoing'%name) time.sleep(random.randrange(1,3)) print('%s is piao end'%name) if __name__ == '__main__': p1=Process(target=foo,args=('alex',)) p2 = Process(target=foo, args=('egon',)) p1.daemon=True p1.start() p2.start() time.sleep(random.randrange(1,3)) print('主') #当主进程运行完后,可能守护进程已经运行完,也可能刚运行一段话,但不是守护进程的p2子进程不受影响,将会运行完毕
进程同步(锁)
进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,竞争带来的结果就是错乱,如何控制,就是加锁处理
part1:多个进程共享同一打印终端
#并发运行,效率高,但竞争同一打印终端,带来了打印错乱 from multiprocessing import Process import time,os def foo(): print('%s is piaoing'%os.getpid()) time.sleep(2) print('%s is piao end'%os.getpid()) if __name__ == '__main__': for i in range(3): p1=Process(target=foo) p1.start() #输出结果: 5168 is piaoing 6036 is piaoing 588 is piaoing 5168 is piao end 6036 is piao end 588 is piao end
#由并发变成了串行,牺牲了运行效率,但避免了竞争 from multiprocessing import Process,Lock import time,os def foo(lock): lock.acquire() print('%s is piaoing'%os.getpid()) time.sleep(2) print('%s is piao end'%os.getpid()) lock.release() if __name__ == '__main__': lock=Lock() for i in range(3): p1=Process(target=foo,args=(lock,)) p1.start() #输出结果: 5668 is piaoing 5668 is piao end 4212 is piaoing 4212 is piao end 3648 is piaoing 3648 is piao end
part2:多个进程共享同一文件
文件当数据库,模拟抢票
#并发运行,效率高,但竞争写同一文件,数据写入错乱 from multiprocessing import Process import time,json def search(n): dic=json.load(open('a.txt')) print('%s 剩余 %s 张'%(n,dic['count'])) def get(n): dic = json.load(open('a.txt')) time.sleep(0.2) #模拟网络延迟 if dic['count']>0: dic['count']-=1 json.dump(dic,open('a.txt','w')) print('%s 购票成功 '%(n,)) def task(n): search(n) get(n) if __name__ == '__main__': for i in range(5): p1=Process(target=task,args=(i,)) p1.start() #输出: 1 剩余 1 张 2 剩余 1 张 3 剩余 1 张 0 剩余 1 张 4 剩余 1 张 1 购票成功 2 购票成功 3 购票成功 0 购票成功 4 购票成功
#加锁:购票行为由并发变成了串行,牺牲了运行效率,但保证了数据安全 #文件db的内容为:{"count":1} #注意一定要用双引号,不然json无法识别 from multiprocessing import Process,Lock import time,json def search(n): dic=json.load(open('a.txt')) print('%s 剩余 %s 张'%(n,dic['count'])) def get(n): dic = json.load(open('a.txt')) time.sleep(0.2) #模拟网络延迟 if dic['count']>0: dic['count']-=1 json.dump(dic,open('a.txt','w')) print('%s 购票成功 '%(n,)) def task(n,lock): search(n) lock.acquire() get(n) lock.release() if __name__ == '__main__': lock=Lock() for i in range(5): p1=Process(target=task,args=(i,lock)) p1.start() #输出结果: 1 剩余 1 张 2 剩余 1 张 0 剩余 1 张 3 剩余 1 张 4 剩余 1 张 1 购票成功
总结:
#加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。 虽然可以用文件共享数据实现进程间通信,但问题是: 1.效率低(共享数据基于文件,而文件是硬盘上的数据) 2.需要自己加锁处理 #因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供
的基于消息的IPC通信机制:队列和管道。 1 队列和管道都是将数据存放于内存中 2 队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来, 我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。
队列
进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的
创建队列的类(底层就是以管道和锁定的方式实现):
Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。
参数介绍:
maxsize是队列中允许最大项数,省略则无大小限制。
方法介绍:
主要方法: 1 q.put方法用以插入数据到队列中,put方法还有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,
该方法会阻塞timeout指定的时间,直到该队列有剩余的空间。如果超时,会抛出Queue.Full异常。如果blocked为False,但该Queue已满,
会立即抛出Queue.Full异常。
2 q.get方法可以从队列读取并且删除一个元素。同样,get方法有两个可选参数:blocked和timeout。如果blocked为True(默认值),
并且timeout为正值,那么在等待时间内没有取到任何元素,会抛出Queue.Empty异常。如果blocked为False,有两种情况存在,
如果Queue有一个值可用,则立即返回该值,否则,如果队列为空,则立即抛出Queue.Empty异常. 3 q.get_nowait():同q.get(False) 4 q.put_nowait():同q.put(False) 5 q.empty():调用此方法时q为空则返回True,该结果不可靠,比如在返回True的过程中,如果队列中又加入了项目。 6 q.full():调用此方法时q已满则返回True,该结果不可靠,比如在返回True的过程中,如果队列中的项目被取走。 7 q.qsize():返回队列中目前项目的正确数量,结果也不可靠,理由同q.empty()和q.full()一样
其他方法(了解): 1 q.cancel_join_thread():不会在进程退出时自动连接后台线程。可以防止join_thread()方法阻塞 2 q.close():关闭队列,防止队列中加入更多数据。调用此方法,后台线程将继续写入那些已经入队列但尚未写入的数据,但将在此方法完成时马上关闭。
如果q被垃圾收集,将调用此方法。关闭队列不会在队列使用者中产生任何类型的数据结束信号或异常。例如,如果某个使用者正在被阻塞在get()操作上,
关闭生产者中的队列不会导致get()方法返回错误。 3 q.join_thread():连接队列的后台线程。此方法用于在调用q.close()方法之后,等待所有队列项被消耗。默认情况下,
此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread方法可以禁止这种行为
示例
from multiprocessing import Process,Queue q=Queue(3) #put ,get ,put_nowait,get_nowait,full,empty q.put_nowait(3) q.put_nowait(3) q.put_nowait(3) print(q.full()) #满了 print(q.get_nowait()) print(q.get_nowait()) print(q.get_nowait()) print(q.empty()) #空了
生产者消费者模型
生产者消费者模型
在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。
为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,
那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。
为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,
所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,
平衡了生产者和消费者的处理能力。
基于队列实现生产者消费者模型
from multiprocessing import Process,Queue import time,random def cook(name,q): for i in range(10): time.sleep(0.5) res='包子%s'%i q.put(res) print('%s 做了 %s'%(name,i)) def ma(name,q): while True: res=q.get() time.sleep(random.randrange(1, 3)) print('%s 吃了 %s'%(name,res)) if __name__ == '__main__': q=Queue() c1=Process(target=cook,args=('alex',q)) m1 = Process(target=ma, args=('egon', q)) c1.start() m1.start() print('主')
此时的问题是主进程永远不会结束,原因是:生产者p在生产完后就结束了,但是消费者c在取空了q之后,则一直处于死循环中且卡在q.get()这一步。
解决方式无非是让生产者在生产完毕后,往队列中再发一个结束信号,这样消费者在接收到结束信号后就可以break出死循环
from multiprocessing import Process,Queue import time,random def cook(name,q): for i in range(10): time.sleep(0.5) res='包子%s'%i q.put(res) print('%s 做了 %s'%(name,i)) q.put(None) def ma(name,q): while True: res=q.get() if res==None:break time.sleep(random.randrange(1, 3)) print('%s 吃了 %s'%(name,res)) if __name__ == '__main__': q=Queue() c1=Process(target=cook,args=('alex',q)) m1 = Process(target=ma, args=('egon', q)) c1.start() m1.start() print('主')
注意:结束信号None,不一定要由生产者发,主进程里同样可以发,但主进程需要等生产者结束后才应该发送该信号
from multiprocessing import Process,Queue import time,random def cook(name,q): for i in range(10): time.sleep(0.5) res='包子%s'%i q.put(res) print('%s 做了 %s'%(name,i)) def ma(name,q): while True: res=q.get() if res==None:break time.sleep(random.randrange(1, 3)) print('%s 吃了 %s'%(name,res)) if __name__ == '__main__': q=Queue() c1=Process(target=cook,args=('alex',q)) m1 = Process(target=ma, args=('egon', q)) c1.start() m1.start() c1.join() q.put(None) print('主')
但上述解决方式,在有多个生产者和多个消费者时,我们则需要用一个很low的方式去解决
from multiprocessing import Process,Queue import time,random def cook(name,s,q): for i in range(10): time.sleep(0.5) res='第%s个%s'%(i,s) q.put(res) print('%s 做了第%s个%s'%(name,i,s)) def ma(name,q): while True: res=q.get() if res==None:break time.sleep(random.randrange(1,3)) print('%s 吃了 %s'%(name,res)) if __name__ == '__main__': q=Queue() c1=Process(target=cook,args=('alex','包子',q)) c2 = Process(target=cook, args=('wang', '骨头', q)) c3 = Process(target=cook, args=('zzzz', '敢睡', q)) m1 = Process(target=ma, args=('egon1', q)) m2 = Process(target=ma, args=('egon2', q)) c1.start() c2.start() c3.start() m1.start() m2.start() c1.join() c2.join() c3.join() q.put(None) q.put(None) print('主')