python 进阶第五关 进阶任务_python进程进阶

本节目录:

1.进程的其他方法

2.验证进程之间是空间隔离的

3.守护进程

4.互斥锁

5.编写一个伪抢票程序

6.数据共享

7.for循环,join

8.队列

9.用队列完成一个生产者消费者模型

10.数据共享详解

一、进程的其他方法:

1.os.getpid():

查找子进程的pid(进程id)

2.os.getppid()

查找子进程父进程的pid

3.is_alive()

判断子进程是否还活着,是否还在运行

4.terminate()

给操作系统发送一个结束进程的信号

具体代码如下:

1 frommultiprocessing import Process2 import os3 def f1():4 print("子进程的ID",os.getpid())5 print("子进程的父进程ID",os.getppid())6 print("xxxxxxx")7

8 def f2():9 print("aaaaaaa")10

11 if __name__ == '__main__':12 p1 = Process(target=f1,name = "给子进程命名")13 p2 = Process(target=f2,)14 p1.start()15 p2.start()16 print(p1.name)17 print("子进程的ID",p1.pid)18 print("父进程的ID",os.getppid())

进程的其他方法具体代码

1 frommultiprocessing import Process2 import os3 import time4 def f1():5 time.sleep(5)6 print("子进程1号")7

8 if __name__ == '__main__':9 p = Process(target=f1,)10 p.start()11 print(p.is_alive()) #查看进程是否存活12 p.terminate() #结束进程13 time.sleep(0.5)14 print(p.is_alive())

进程的其他操作具体代码

二、验证进程之间是空间隔离的

1 frommultiprocessing import Process2 num = 100

3 def f1():4 globalnum5 num = 50

6 print("子进程中的num",num)7

8 if __name__ == '__main__':9 p = Process(target=f1,)10 p.start()11 p.join()12 print("主进程中的num",num)

验证进程之间是空间隔离的

三、守护进程

之前我们讲的子进程是不会随着主进程的结束而结束,子进程全部执行完之后,程序才结束,那么如果有一天我们的需求是我的主进程结束了,由我主进程创建的那些子进程必须跟着结束,怎么办?守护进程就来了!

主进程创建守护进程

其一:守护进程会在主进程代码执行结束后就终止

其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic           processes are not allowed to have children

注意:进程之间是互相独立的,主进程代码运行结束,守护进程随即终止

1 import time2 frommultiprocessing import Process3 def f1():4 time.sleep(2)5 print("守护进程")6

7 def f2():8 time.sleep(3)9 print("普通子进程")10

11 if __name__ == '__main__':12 p1 = Process(target=f1,)13 p1.daemon =True #将该进程设置成守护进程,必须写在start之前,意思如果 我的主进程代码运行结束了,你这个子进程不管运行到什么地方,都直接结束14 p1.start()15

16 #开启一个普通的子进程来验证一下守护进程的结束只和主进程的代码运行结束有关系,而整个程序的结束需要主进程和普通的子进程的代码都运行结束才结束17 p2 = Process(target=f2,)18 p2.start()19 #等待2号普通进程的结束,才继续执行下面主进程中的代码20 # p2.join()21 #守护进程会跟跟着父进程的代码运行结束,就结束22 print('主进程结束')

守护进程

四、互斥锁/进程锁/同步锁

我们千方百计实现了程序的异步,让多个任务可以同时在几个进程中并发处理,他们之间的运行没有顺序,一旦开启也不受我们控制。尽管并发编程让我们能更加充分的利用IO资源,但是也给我们带来了新的问题:进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理。

1 importos2 importtime3 importrandom4 from multiprocessing importProcess5

6 defwork(n):7 print('%s: %s is running' %(n,os.getpid()))8 time.sleep(random.random())9 print('%s:%s is done' %(n,os.getpid()))10

11 if __name__ == '__main__':12 for i in range(5):13 p=Process(target=work,args=(i,))14 p.start()15

16 #看结果:通过结果可以看出两个问题:问题一:每个进程中work函数的第一个打印就不是按照我们for循环的0-4的顺序来打印的

17 #问题二:我们发现,每个work进程中有两个打印,但是我们看到所有进程中第一个打印的顺序为0-2-1-4-3,但是第二个打印没有按照这个顺序,变成了2-1-0-3-4,说明我们一个进程中的程序的执行顺序都混乱了。

18 #问题的解决方法,第二个问题加锁来解决,第一个问题是没有办法解决的,因为进程开到了内核,有操作系统来决定进程的调度,我们自己控制不了

19 #0: 9560 is running

20 #2: 13824 is running

21 #1: 7476 is running

22 #4: 11296 is running

23 #3: 14364 is running

24

25 #2:13824 is done

26 #1:7476 is done

27 #0:9560 is done

28 #3:14364 is done

29 #4:11296 is done

多进程抢占资源,导致打印混乱的示例

加锁处理:

from multiprocessing import Lock 导入Lock类

l = Lock() #创建一个Lock类对象

l.acquire() #加锁

l.release() #释放锁

1 #由并发变成了串行,牺牲了运行效率,但避免了竞争

2 from multiprocessing importProcess,Lock3 importos,time4 defwork(n,lock):5 #加锁,保证每次只有一个进程在执行锁里面的程序,这一段程序对于所有写上这个锁的进程,大家都变成了串行

6 lock.acquire()7 print('%s: %s is running' %(n,os.getpid()))8 time.sleep(1)9 print('%s:%s is done' %(n,os.getpid()))10 #解锁,解锁之后其他进程才能去执行自己的程序

11 lock.release()12 if __name__ == '__main__':13 lock=Lock()14 for i in range(5):15 p=Process(target=work,args=(i,lock))16 p.start()17

18 #打印结果:

19 #2: 10968 is running

20 #2:10968 is done

21 #0: 7932 is running

22 #0:7932 is done

23 #4: 4404 is running

24 #4:4404 is done

25 #1: 12852 is running

26 #1:12852 is done

27 #3: 980 is running

28 #3:980 is done

29

30 #结果分析:(自己去多次运行一下,看看结果,我拿出其中一个结果来看)通过结果我们可以看出,多进程刚开始去执行的时候,每次运行,首先打印出来哪个进程的程序是不固定的,但是我们解决了上面打印混乱示例代码的第二个问题,那就是同一个进程中的两次打印都是先完成的,然后才切换到下一个进程去,打印下一个进程中的两个打印结果,说明我们控制住了同一进程中的代码执行顺序,如果涉及到多个进程去操作同一个数据或者文件的时候,就不担心数据算错或者文件中的内容写入混乱了。

加锁:由并发改成了串行,牺牲了效率,但避免了竞争

上面这种情况虽然使用加锁的形式实现了顺序的执行,但是程序又重新变成串行了,这样确实会浪费了时间,却保证了数据的安全。

接下来,我们以模拟抢票为例,来看看数据安全的重要性。

五、编写一个伪抢票程序

并发运行,效率高。但是竞争同一个文件,导致数据混乱

加锁:购票行为由并发变成了串行,牺牲了效率,但是保证了数据安全

#注意:首先在当前文件目录下创建一个名为db的文件

#文件db的内容为:{"count":1},只有这一行数据,并且注意,每次运行完了之后,文件中的1变成了0,你需要手动将0改为1,然后在去运行代码。

#注意一定要用双引号,不然json无法识别

#加锁保证数据安全,不出现混乱

from multiprocessing import Process,Lock

import time,json,random

#查看剩余票数

def search():

dic=json.load(open('db')) #打开文件,直接load文件中的内容,拿到文件中的包含剩余票数的字典

print('\033[43m剩余票数%s\033[0m' %dic['count'])

#抢票

def get():

dic=json.load(open('db'))

time.sleep(0.1) #模拟读数据的网络延迟,那么进程之间的切换,导致所有人拿到的字典都是{"count": 1},也就是每个人都拿到了这一票。

if dic['count'] >0:

dic['count']-=1

time.sleep(0.2) #模拟写数据的网络延迟

json.dump(dic,open('db','w'))

#最终结果导致,每个人显示都抢到了票,这就出现了问题~

print('\033[43m购票成功\033[0m')

else:

print('sorry,没票了亲!')

def task(lock):

search()

#因为抢票的时候是发生数据变化的时候,所有我们将锁加加到这里

lock.acquire()

get()

lock.release()

if __name__ == '__main__':

lock = Lock() #创建一个锁

for i in range(3): #模拟并发100个客户端抢票

p=Process(target=task,args=(lock,)) #将锁作为参数传给task函数

p.start()

进程锁总结

#加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。

虽然可以用文件共享数据实现进程间通信,但问题是:

1.效率低(共享数据基于文件,而文件是硬盘上的数据)

2.需要自己加锁处理

#因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。

队列和管道都是将数据存放于内存中

队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,

我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。

IPC通信机制(了解):IPC是intent-Process Communication的缩写,含义为进程间通信或者跨进程通信,是指两个进程之间进行数据交换的过程。IPC不是某个系统所独有的,任何一个操作系统都需要有相应的IPC机制,

比如Windows上可以通过剪贴板、管道和邮槽等来进行进程间通信,而Linux上可以通过命名共享内容、信号量等来进行进程间通信。Android它也有自己的进程间通信方式,Android建构在Linux基础上,继承了一

部分Linux的通信方式。

六、数据共享

在本篇最后有详细讲解

import time

from multiprocessing import Process,Manager,Lock

# a = 10

# # tmp = a

# # tmp -= 1

# # a = tmp

# a -= 1 # a = a - 1

def f1(m_d,l2):

m_d['num'] -= 1 #

with l2:

l2.acquire()

tmp = m_d['num']

tmp -= 1

time.sleep(0.1)

m_d['num'] = tmp

l2.release()

if __name__ == '__main__':

m = Manager()

l2 = Lock()

m_d = m.dict({'num':100})

p_list = []

for i in range(10):

p = Process(target=f1,args=(m_d,l2))

p.start()

p_list.append(p)

[pp.join() for pp in p_list]

print(m_d['num'])

七、for循环和join

for循环创建子进程,并且完成主进程等待所有子进程执行结束,才继续执行

import time

from multiprocessing import Process

def f1():

time.sleep(0.5)

print('xxx')

if __name__ == '__main__':

p_list = []

#for循环创建子进程,并且完成主进程等待所有子进程执行结束,才继续执行

for i in range(10):

p = Process(target=f1,)

p.start()

p_list.append(p)

p.join()

# for pp in p_list:

# pp.join()

print('主进程结束')

八、队列(推荐使用)

进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的。队列就像一个特殊的列表,但是可以设置固定长度,并且从前面插入数据,从后面取出数据,先进先出。

Queue([maxsize]) 创建共享的进程队列。

参数 :maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。

底层队列使用管道和锁实现。

先看下面的代码示例,然后再看方法介绍。

q =Queue([maxsize])

创建共享的进程队列。maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还需要运行支持线程以便队列中的数据传输到底层管道中。

Queue的实例q具有以下方法:

q.get( [ block [ ,timeout ] ] )

返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在制定的时间间隔内没有项目变为可用,将引发Queue.Empty异常。

q.get_nowait( )

同q.get(False)方法。

q.put(item [, block [,timeout ] ] )

将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。

q.qsize()

返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。

q.empty()

如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。

q.full()

如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。。

方法介绍

queue的其他方法(了解)

q.close()

关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者中生成任何类型的数据结束信号或异常。例如,如果某个使用者正被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。

q.cancel_join_thread()

不会再进程退出时自动连接后台线程。这可以防止join_thread()方法阻塞。

q.join_thread()

连接队列的后台线程。此方法用于在调用q.close()方法后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread()方法可以禁止这种行为。

其他方法

我们看一些代码实例:

from multiprocessing importQueue

q=Queue(3) #创建一个队列对象,队列长度为3

#put ,get ,put_nowait,get_nowait,full,empty

q.put(3) #往队列中添加数据

q.put(2)

q.put(1)#q.put(4) # 如果队列已经满了,程序就会停在这里,等待数据被别人取走,再将数据放入队列。

#如果队列中的数据一直不被取走,程序就会永远停在这里。

try:

q.put_nowait(4) #可以使用put_nowait,如果队列满了不会阻塞,但是会因为队列满了而报错。

except: #因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去,但是会丢掉这个消息。

print('队列已经满了')#因此,我们再放入数据之前,可以先看一下队列的状态,如果已经满了,就不继续put了。

print(q.full()) #查看是否满了,满了返回True,不满返回False

print(q.get()) #取出数据

print(q.get())print(q.get())#print(q.get()) # 同put方法一样,如果队列已经空了,那么继续取就会出现阻塞。

try:

q.get_nowait(3) #可以使用get_nowait,如果队列满了不会阻塞,但是会因为没取到值而报错。

except: #因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去。

print('队列已经空了')print(q.empty()) #空了

队列的简单用法

#看下面的队列的时候,按照编号看注释

importtimefrom multiprocessing importProcess, Queue#8. q = Queue(2) #创建一个Queue对象,如果写在这里,那么在windows还子进程去执行的时候,我们知道子进程中还会执行这个代码,但是子进程中不能够再次创建了,也就是这个q就是你主进程中创建的那个q,通过我们下面在主进程中先添加了一个字符串之后,在去开启子进程,你会发现,小鬼这个字符串还在队列中,也就是说,我们使用的还是主进程中创建的这个队列。

deff(q):#q = Queue() #9. 我们在主进程中开启了一个q,如果我们在子进程中的函数里面再开一个q,那么你下面q.put('姑娘,多少钱~')添加到了新创建的这q里里面了

q.put('姑娘,多少钱~') #4.调用主函数中p进程传递过来的进程参数 put函数为向队列中添加一条数据。

#print(q.qsize()) #6.查看队列中有多少条数据了

deff2(q):print('》》》》》》》》')print(q.get()) #5.取数据

if __name__ == '__main__':

q= Queue() #1.创建一个Queue对象

q.put('小鬼')

p= Process(target=f, args=(q,)) #2.创建一个进程

p2 = Process(target=f2, args=(q,)) #3.创建一个进程

p.start()

p2.start()

time.sleep(1) #7.如果阻塞一点时间,就会出现主进程运行太快,导致我们在子进程中查看qsize为1个。

#print(q.get()) #结果:小鬼

print(q.get()) #结果:姑娘,多少钱~

p.join()

子进程与父进程通过队列进行通信

九、用队列完成一个生产者消费者模型:

队列是进程安全的:同一时间只能一个进程拿到队列中的一个数据,你拿到了一个数据,这个数据别人就拿不到了。

下面我们来看一个叫做生产者消费者模型的东西:

在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。

为什么要使用生产者和消费者模式

在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

什么是生产者消费者模式

生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力,并且我可以根据生产速度和消费速度来均衡一下多少个生产者可以为多少个消费者提供足够的服务,就可以开多进程等等,而这些进程都是到阻塞队列或者说是缓冲区中去获取或者添加数据。

如下图:

那么我们基于队列来实现一个生产者消费者模型,代码实例:

from multiprocessing importProcess,Queueimporttime,random,osdefconsumer(q):whileTrue:

res=q.get()

time.sleep(random.randint(1,3))print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))defproducer(q):for i in range(10):

time.sleep(random.randint(1,3))

res='包子%s' %i

q.put(res)print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))if __name__ == '__main__':

q=Queue()#生产者们:即厨师们

p1=Process(target=producer,args=(q,))#消费者们:即吃货们

c1=Process(target=consumer,args=(q,))#开始

p1.start()

c1.start()print('主')

基于队列的生产者消费者模型

生产者消费者模型总结:

#生产者消费者模型总结

#程序中有两类角色

一类负责生产数据(生产者)

一类负责处理数据(消费者)

#引入生产者消费者模型为了解决的问题是:

平衡生产者与消费者之间的工作能力,从而提高程序整体处理数据的速度

#如何实现:

生产者队列消费者

#生产者消费者模型实现类程序的解耦和

通过上面基于队列的生产者消费者代码示例,我们发现一个问题:主进程永远不会结束,原因是:生产者p在生产完后就结束了,但是消费者c在取空了q之后,则一直处于死循环中且卡在q.get()这一步。

解决方式无非是让生产者在生产完毕后,往队列中再发一个结束信号,这样消费者在接收到结束信号后就可以break出死循环

子进程生产者在生产完毕后发送结束信号None:

from multiprocessing importProcess,Queueimporttime,random,osdefconsumer(q):whileTrue:

res=q.get()if res is None:break #收到结束信号则结束

time.sleep(random.randint(1,3))print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))defproducer(q):for i in range(5):

time.sleep(random.randint(1,3))

res='包子%s' %i

q.put(res)print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))

q.put(None)#在自己的子进程的最后加入一个结束信号

if __name__ == '__main__':

q=Queue()#生产者们:即厨师们

p1=Process(target=producer,args=(q,))#消费者们:即吃货们

c1=Process(target=consumer,args=(q,))#开始

p1.start()

c1.start()print('主')

注意:结束信号None,不一定要由生产者发,主进程里同样可以发,但主进程需要等生产者结束后才应该发送信号

主进程在生产者生产完毕后发送结束信号None:

from multiprocessing importProcess,Queueimporttime,random,osdefconsumer(q):whileTrue:

res=q.get()if res is None:break #收到结束信号则结束

time.sleep(random.randint(1,3))print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))defproducer(q):for i in range(2):

time.sleep(random.randint(1,3))

res='包子%s' %i

q.put(res)print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))if __name__ == '__main__':

q=Queue()#生产者们:即厨师们

p1=Process(target=producer,args=(q,))#消费者们:即吃货们

c1=Process(target=consumer,args=(q,))#开始

p1.start()

c1.start()

p1.join()#等待生产者进程结束

q.put(None) #发送结束信号

print('主')

其实我们的思路无非是发送结束信号而已,有另外一种队列提供了这种机制:

JoinableQueue([maxsize])

#JoinableQueue([maxsize]):这就像是一个Queue对象,但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。

#参数介绍:

maxsize是队列中允许最大项数,省略则无大小限制。#方法介绍:

JoinableQueue的实例p除了与Queue对象相同的方法之外还具有:

q.task_done():使用者使用此方法发出信号,表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量,将引发ValueError异常

q.join():生产者调用此方法进行阻塞,直到队列中所有的项目均被处理。阻塞将持续到队列中的每个项目均调用q.task_done()方法为止,也就是队列中的数据全部被get拿走了。

JoinableQueue([maxsize]) 队列实现生产者消费者模型

from multiprocessing import Process,JoinableQueue

import time,random,os

def consumer(q):

while True:

res=q.get()

# time.sleep(random.randint(1,3))

time.sleep(random.random())

print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))

q.task_done() #向q.join()发送一次信号,证明一个数据已经被取走并执行完了

def producer(name,q):

for i in range(10):

# time.sleep(random.randint(1,3))

time.sleep(random.random())

res='%s%s' %(name,i)

q.put(res)

print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))

print('%s生产结束'%name)

q.join() #生产完毕,使用此方法进行阻塞,直到队列中所有项目均被处理。

print('%s生产结束~~~~~~'%name)

if __name__ == '__main__':

q=JoinableQueue()

#生产者们:即厨师们

p1=Process(target=producer,args=('包子',q))

p2=Process(target=producer,args=('骨头',q))

p3=Process(target=producer,args=('泔水',q))

#消费者们:即吃货们

c1=Process(target=consumer,args=(q,))

c2=Process(target=consumer,args=(q,))

c1.daemon=True #如果不加守护,那么主进程结束不了,但是加了守护之后,必须确保生产者的内容生产完并且被处理完了,所有必须还要在主进程给生产者设置join,才能确保生产者生产的任务被执行完了,并且能够确保守护进程在所有任务执行完成之后才随着主进程的结束而结束。

c2.daemon=True

#开始

p_l=[p1,p2,p3,c1,c2]

for p in p_l:

p.start()

p1.join() #我要确保你的生产者进程结束了,生产者进程的结束标志着你生产的所有的人任务都已经被处理完了

p2.join()

p3.join()

print('主')

# 主进程等--->p1,p2,p3等---->c1,c2

# p1,p2,p3结束了,证明c1,c2肯定全都收完了p1,p2,p3发到队列的数据

# 因而c1,c2也没有存在的价值了,不需要继续阻塞在进程中影响主进程了。应该随着主进程的结束而结束,所以设置成守护进程就可以了。

十、数据共享详解:

展望未来,基于消息传递的并发编程是大势所趋

即便是使用线程,推荐做法也是将程序设计为大量独立的线程集合

通过消息队列交换数据。这样极大地减少了对使用锁定和其他同步手段的需求,还可以扩展到分布式系统中

进程间应该尽量避免通信,即便需要通信,也应该选择进程安全的工具来避免加锁带来的问题,应该尽量避免使用本节所讲的共享数据的方式,以后我们会尝试使用数据库来解决进程之间的数据共享问题。

进程之间数据共享的模块之一Manager模块:

进程间数据是独立的,可以借助于队列或管道实现通信,二者都是基于消息传递的

虽然进程间数据独立,但可以通过Manager实现数据共享,事实上Manager的功能远不止于此

A manager object returned by Manager() controls a server process which holds Python objectsandallows other processes to manipulate them using proxies.

A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Valueand Array.

Manager模块介绍

多进程共同去处理共享数据的时候,就和我们多进程同时去操作一个文件中的数据是一样的,不加锁就会出现错误的结果,进程不安全的,所以也需要加锁

from multiprocessing importManager,Process,Lockdefwork(d,lock):

with lock:#不加锁而操作共享的数据,肯定会出现数据错乱

d['count']-=1

if __name__ == '__main__':

lock=Lock()

with Manager() as m:

dic=m.dict({'count':100})

p_l=[]for i in range(100):

p=Process(target=work,args=(dic,lock))

p_l.append(p)

p.start()for p inp_l:

p.join()print(dic)

Manager模块使用

总结一下,进程之间的通信:队列、管道、数据共享也算

下面要讲的信号量和事件也相当于锁,也是全局的,所有进程都能拿到这些锁的状态,进程之间这些锁啊信号量啊事件啊等等的通信,其实底层还是socekt,只不过是基于文件的socket通信,而不是跟上面的数据共享啊空间共享啊之类的机制,我们之前学的是基于网络的socket通信,还记得socket的两个家族吗,一个文件的一个网络的,所以将来如果说这些锁之类的报错,可能你看到的就是类似于socket的错误,简单知道一下就可以啦~~~

工作中常用的是锁,信号量和事件不常用,但是信号量和事件面试的时候会问到,你能知道就行啦。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值