python #d_python D30 进程

所谓异步是不需要等待被依赖的任务完成,只是通知被依赖的任务要完成什么工作,依赖的任务也立即执行,只要自己完成了整个任务就算完成了。至于被依赖的任务最终是否真正完成,依赖它的任务无法确定,所以它是不可靠的任务序列。

比如我们去楼下的老家肉饼吃饭,饭点好了,取餐的时候发生了一些同步异步的事情。

同步:我们都站在队里等着取餐,前面有个人点了一份肉饼,后厨做了很久,但是由于同步机制,我们还是要站在队里等着前面那个人的肉饼做好取走,我们才往前走一步。

异步:我们点完餐之后,点餐员给了我们一个取餐号码,跟你说,你不用在这里排队等着,去找个地方坐着玩手机去吧,等饭做好了,我叫你。这种机制(等待别人通知)就是异步等待消息通知。在异步消息处理中,等待消息通知者(在这个例子中等着取餐的你)往往注册一个回调机制,在所等待的事件被触发时由触发机制(点餐员)通过某种机制(喊号,‘250号你的包子好了‘)找到等待该事件的人。

同步异步实例

3.阻塞与非阻塞

阻塞和非阻塞这两个概念与程序(线程)等待消息通知(无所谓同步或者异步)时的状态有关。也就是说阻塞与非阻塞主要是程序(线程)等待消息通知时的状态角度来说的

继续上面的那个例子,不论是排队还是使用号码等待通知,如果在这个等待的过程中,等待者除了等待消息通知之外不能做其它的事情,那么该机制就是阻塞的,表现在程序中,也就是该程序一直阻塞在该函数调用处不能继续往下执行。

相反,有的人喜欢在等待取餐的时候一边打游戏一边等待,这样的状态就是非阻塞的,因为他(等待者)没有阻塞在这个消息通知上,而是一边做自己的事情一边等待。阻塞的方法:input、time.sleep,socket中的recv、accept等等。

4.同步/异步 与 阻塞和非阻塞

同步阻塞形式

效率最低。拿上面的例子来说,就是你专心排队,什么别的事都不做。

异步阻塞形式

如果在排队取餐的人采用的是异步的方式去等待消息被触发(通知),也就是领了一张小纸条,假如在这段时间里他不能做其它的事情,就在那坐着等着,不能玩游戏等,那么很显然,这个人被阻塞在了这个等待的操作上面;

异步操作是可以被阻塞住的,只不过它不是在处理消息时阻塞,而是在等待消息通知时被阻塞。

同步非阻塞形式

实际上是效率低下的。

想象一下你一边打着电话一边还需要抬头看到底队伍排到你了没有,如果把打电话和观察排队的位置看成是程序的两个操作的话,这个程序需要在这两种不同的行为之间来回的切换,效率可想而知是低下的。

异步非阻塞形式

效率更高,

因为打电话是你(等待者)的事情,而通知你则是柜台(消息触发机制)的事情,程序没有在两种不同的操作中来回切换。

比如说,这个人突然发觉自己烟瘾犯了,需要出去抽根烟,于是他告诉点餐员说,排到我这个号码的时候麻烦到外面通知我一下,那么他就没有被阻塞在这个等待的操作上面,自然这个就是异步+非阻塞的方式了。

很多人会把同步和阻塞混淆,是因为很多时候同步操作会以阻塞的形式表现出来,同样的,很多人也会把异步和非阻塞混淆,因为异步操作一般都不会在真正的IO操作处被阻塞。

五、进程的创建、结束并发的实现

1.进程的创建

但凡是硬件,都需要有操作系统去管理,只要有操作系统,就有进程的概念,就需要有创建进程的方式,一些操作系统只为一个应用程序设计,比如微波炉中的控制器,一旦启动微波炉,所有的进程都已经存在。

而对于通用系统(跑很多应用程序),需要有系统运行过程中创建或撤销进程的能力,主要分为4中形式创建新的进程

1. 系统初始化(查看进程linux中用ps命令,windows中用任务管理器,前台进程负责与用户交互,后台运行的进程与用户无关,运行在后台并且只在需要时才唤醒的进程,称为守护进程,如电子邮件、web页面、新闻、打印)

2. 一个进程在运行过程中开启了子进程(如nginx开启多进程,os.fork,subprocess.Popen等)

3. 用户的交互式请求,而创建一个新进程(如用户双击暴风影音)

4. 一个批处理作业的初始化(只在大型机的批处理系统中应用)

无论哪一种,新进程的创建都是由一个已经存在的进程执行了一个用于创建进程的系统调用而创建的:

1. 在UNIX中该系统调用是:fork,fork会创建一个与父进程一模一样的副本,二者有相同的存储映像、同样的环境字符串和同样的打开文件(在shell解释器进程中,执行一个命令就会创建一个子进程)

2. 在windows中该系统调用是:CreateProcess,CreateProcess既处理进程的创建,也负责把正确的程序装入新进程。

关于创建的子进程,UNIX和windows

1.相同的是:进程创建后,父进程和子进程有各自不同的地址空间(多道技术要求物理层面实现进程之间内存的隔离),任何一个进程的在其地址空间中的修改都不会影响到另外一个进程。

2.不同的是:在UNIX中,子进程的初始地址空间是父进程的一个副本,提示:子进程和父进程是可以有只读的共享内存区的。但是对于windows系统来说,从一开始父进程与子进程的地址空间就是不同的。

2.进程的结束

1. 正常退出(自愿,如用户点击交互式页面的叉号,或程序执行完毕调用发起系统调用正常退出,在linux中用exit,在windows中用ExitProcess)

2. 出错退出(自愿,python a.py中a.py不存在)

3. 严重错误(非自愿,执行非法指令,如引用不存在的内存,1/0等,可以捕捉异常,try...except...)

4. 被其他进程杀死(非自愿,如kill -9)

3.进程并发的实现(了解)

进程并发的实现在于,硬件中断一个正在运行的进程,把此时进程运行的所有状态保存下来,为此,操作系统维护一张表格,即进程表(process table),每个进程占用一个进程表项(这些表项也称为进程控制块)

该表存放了进程状态的重要信息:程序计数器、堆栈指针、内存分配状况、所有打开文件的状态、帐号和调度信息,以及其他在进程由运行态转为就绪态或阻塞态时,必须保存的信息,从而保证该进程在再次启动时,就像从未被中断过一样。

五、multiprocess模块

仔细说来,multiprocess不是一个模块而是python中一个操作、管理进程的包。 之所以叫multi是取自multiple的多功能的意思,在这个包中几乎包含了和进程有关的所有子模块。由于提供的子模块非常多,为了方便大家归类记忆,我将这部分大致分为四个部分:创建进程部分,进程同步部分,进程池部分,进程之间数据共享。重点强调:进程没有任何共享状态,进程修改的数据,改动仅限于该进程内,但是通过一些特殊的方法,可以实现进程之间数据的共享。

1.process模块介绍

process模块是一个创建进程的模块,借助这个模块,就可以完成进程的创建。

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)

强调:

1. 需要使用关键字的方式来指定参数

2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号

#当前文件名称为test.py

# from multiprocessing import Process

#

# def func():

# print(12345)

#

# if __name__ == '__main__': #windows 下才需要写这个,这和系统创建进程的机制有关系,不用深究,记着windows下要写就好啦

# #首先我运行当前这个test.py文件,运行这个文件的程序,那么就产生了进程,这个进程我们称为主进程

#

# p = Process(target=func,) #将函数注册到一个进程中,p是一个进程对象,此时还没有启动进程,只是创建了一个进程对象。并且func是不加括号的,因为加上括号这个函数就直接运行了对吧。

# p.start() #告诉操作系统,给我开启一个进程,func这个函数就被我们新开的这个进程执行了,而这个进程是我主进程运行过程中创建出来的,所以称这个新创建的进程为主进程的子进程,而主进程又可以称为这个新进程的父进程。

#而这个子进程中执行的程序,相当于将现在这个test.py文件中的程序copy到一个你看不到的python文件中去执行了,就相当于当前这个文件,被另外一个py文件import过去并执行了。

#start并不是直接就去执行了,我们知道进程有三个状态,进程会进入进程的三个状态,就绪,(被调度,也就是时间片切换到它的时候)执行,阻塞,并且在这个三个状态之间不断的转换,等待cpu执行时间片到了。

# print('*' * 10) #这是主进程的程序,上面开启的子进程的程序是和主进程的程序同时运行的,我们称为异步

上面说了,我们通过主进程创建的子进程是异步执行的,那么我们就验证一下,并且看一下子进程和主进程(也就是父进程)的ID号(讲一下pid和ppid,使用pycharm举例),来看看是否是父子关系。

importtimeimportos#os.getpid() 获取自己进程的ID号#os.getppid() 获取自己进程的父进程的ID号

from multiprocessing importProcessdeffunc():print('aaaa')

time.sleep(1)print('子进程>>',os.getpid())print('该子进程的父进程>>',os.getppid())print(12345)if __name__ == '__main__':#首先我运行当前这个文件,运行的这个文件的程序,那么就产生了主进程

p= Process(target=func,)

p.start()print('*' * 10)print('父进程>>',os.getpid())print('父进程的父进程>>',os.getppid())#加上time和进程号给大家看一看结果:#********** 首先打印出来了出进程的程序,然后打印的是子进程的,也就是子进程是异步执行的,相当于主进程和子进程同时运行着,如果是同步的话,我们先执行的是func(),然后再打印主进程最后的10个*号。#父进程>> 3308#父进程的父进程>> 5916 #我运行的test.py文件的父进程号,它是pycharm的进程号,看下面的截图

#aaaa#子进程>> 4536#该子进程的父进程>> 3308 #是我主进程的ID号,说明主进程为它的父进程

#12345

子进程与父进程

看一个问题,说明linux和windows两个不同的操作系统创建进程的不同机制导致的不同结果:

importtimeimportosfrom multiprocessing importProcessdeffunc():print('aaaa')

time.sleep(1)print('子进程>>',os.getpid())print('该子进程的父进程>>',os.getppid())print(12345)print('太白老司机~~~~') #如果我在这里加了一个打印,你会发现运行结果中会出现两次打印出来的太白老司机,因为我们在主进程中开了一个子进程,子进程中的程序相当于import的主进程中的程序,那么import的时候会不会执行你import的那个文件的程序啊,前面学的,是会执行的,所以出现了两次打印#其实是因为windows开起进程的机制决定的,在linux下是不存在这个效果的,因为windows使用的是process方法来开启进程,他就会拿到主进程中的所有程序,而linux下只是去执行我子进程中注册的那个函数,不会执行别的程序,这也是为什么在windows下要加上执行程序的时候,

要加上if __name__ == '__main__':,否则会出现子进程中运行的时候还开启子进程,那就出现无限循环的创建进程了,就报错了

代码

一个进程的生命周期:如果子进程的运行时间长,那么等到子进程执行结束程序才结束,如果主进程的执行时间长,那么主进程执行结束程序才结束,实际上我们在子进程中打印的内容是在主进程的执行结果中看不出来的,但是pycharm帮我们做了优化,因为它会识别到你这是开的子进程,帮你把子进程中打印的内容打印到了显示台上。

如果说一个主进程运行完了之后,我们把pycharm关了,但是子进程还没有执行结束,那么子进程还存在吗?这要看你的进程是如何配置的,如果说我们没有配置说我主进程结束,子进程要跟着结束,那么主进程结束的时候,子进程是不会跟着结束的,他会自己执行完,如果我设定的是主进程结束,子进程必须跟着结束,那么就不会出现单独的子进程(孤儿进程)了,具体如何设置,看下面的守护进程的讲解。比如说,我们将来启动项目的时候,可能通过cmd来启动,那么我cmd关闭了你的项目就会关闭吗,不会的,因为你的项目不能停止对外的服务,对吧。

Process类中参数的介绍:

参数介绍:

1 group参数未使用,值始终为None

2 target表示调用对象,即子进程要执行的任务

3 args表示调用对象的位置参数元组,args=(1,2,'egon',)

4 kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}

5 name为子进程的名称

给要执行的函数传参数:

deffunc(x,y):print(x)

time.sleep(1)print(y)if __name__ == '__main__':

p= Process(target=func,args=('姑娘','来玩啊!'))#这是func需要接收的参数的传送方式。

p.start()print('父进程执行结束!')#执行结果:

父进程执行结束!

姑娘

来玩啊!

函数传参

Process类中各方法的介绍:

1 p.start():启动进程,并调用该子进程中的p.run()

2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法

3 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁

4 p.is_alive():如果p仍然运行,返回True

5 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程

join方法的例子:

让主进程加上join的地方等待(也就是阻塞住),等待子进程执行完之后,再继续往下执行我的主进程,好多时候,我们主进程需要子进程的执行结果,所以必须要等待。join感觉就像是将子进程和主进程拼接起来一样,将异步改为同步执行。

deffunc(x,y):print(x)

time.sleep(1)print(y)if __name__ == '__main__':

p= Process(target=func,args=('姑娘','来玩啊!'))

p.start()print('我这里是异步的啊!') #这里相对于子进程还是异步的

p.join() #只有在join的地方才会阻塞住,将子进程和主进程之间的异步改为同步

print('父进程执行结束!')#打印结果:

我这里是异步的啊!

姑娘

来玩啊!

父进程执行结束!

join方法实例

#下面的注释按照编号去看,别忘啦!

importtimeimportosfrom multiprocessing importProcessdeffunc(x,y):print(x)#time.sleep(1) #进程切换:如果没有这个时间间隔,那么你会发现func执行结果是打印一个x然后一个y,再打印一个x一个y,不会出现打印多个x然后打印y的情况,因为两个打印距离太近了而且执行的也非常快,但是如果你这段程序运行慢的话,你就会发现进程之间的切换了。

print(y)if __name__ == '__main__':

p_list=[]for i in range(10):

p= Process(target=func,args=('姑娘%s'%i,'来玩啊!'))

p_list.append(p)

p.start()

[ap.join()for ap in p_list] #4、这是解决办法,前提是我们的子进程全部都已经去执行了,那么我在一次给所有正在执行的子进程加上join,那么主进程就需要等着所有子进程执行结束才会继续执行自己的程序了,并且保障了所有子进程是异步执行的。

#p.join() #1、如果加到for循环里面,那么所有子进程包括父进程就全部变为同步了,因为for循环也是主进程的,循环第一次的时候,一个进程去执行了,然后这个进程就join住了,那么for循环就不会继续执行了,等着第一个子进程执行结束才会继续执行for循环去创建第二个子进程。

#2、如果我不想这样的,也就是我想所有的子进程是异步的,然后所有的子进程执行完了再执行主进程

#p.join() #3、如果这样写的话,多次运行之后,你会发现会出现主进程的程序比一些子进程先执行完,因为我们p.join()是对最后一个子进程进行了join,也就是说如果这最后一个子进程先于其他子进程执行完,那么主进程就会去执行,而此时如果还有一些子进程没有执行完,而主进程执行

#完了,那么就会先打印主进程的内容了,这个cpu调度进程的机制有关系,因为我们的电脑可能只有4个cpu,我的子进程加上住进程有11个,虽然我for循环是按顺序起进程的,但是操作系统一定会按照顺序给你执行你的进程吗,答案是不会的,操作系统会按照自己的算法来分配进

#程给cpu去执行,这里也解释了我们打印出来的子进程中的内容也是没有固定顺序的原因,因为打印结果也需要调用cpu,可以理解成进程在争抢cpu,如果同学你想问这是什么算法,这就要去研究操作系统啦。那我们的想所有子进程异步执行,然后再执行主进程的这个需求怎么解决啊

print('不要钱~~~~~~~~~~~~~~~~!')

代码

模拟两个应用场景:1、同时对一个文件进行写操作  2、同时创建多个文件

importtimeimportosimportrefrom multiprocessing importProcess#多进程同时对一个文件进行写操作

deffunc(x,y,i):

with open(x,'a',encoding='utf-8') as f:print('当前进程%s拿到的文件的光标位置>>%s'%(os.getpid(),f.tell()))

f.write(y)#多进程同时创建多个文件#def func(x, y):#with open(x, 'w', encoding='utf-8') as f:#f.write(y)

if __name__ == '__main__':

p_list=[]for i in range(10):

p= Process(target=func,args=('can_do_girl_lists.txt','姑娘%s'%i,i))#p = Process(target=func,args=('can_do_girl_info%s.txt'%i,'姑娘电话0000%s'%i))

p_list.append(p)

p.start()

[ap.join()for ap in p_list] #这就是个for循环,只不过用列表生成式的形式写的

with open('can_do_girl_lists.txt','r',encoding='utf-8') as f:

data=f.read()

all_num= re.findall('\d+',data) #打开文件,统计一下里面有多少个数据,每个数据都有个数字,所以re匹配一下就行了

print('>>>>>',all_num,'.....%s'%(len(all_num)))#print([i in in os.walk(r'你的文件夹路径')])

print('不要钱~~~~~~~~~~~~~~~~!')

应用

Process类中自带封装的各属性的介绍

1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置

2 p.name:进程的名称

3 p.pid:进程的pid

4 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)

5 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)

进程的创建第二种方法(继承)

class MyProcess(Process): #自己写一个类,继承Process类

#我们通过init方法可以传参数,如果只写一个run方法,那么没法传参数,因为创建对象的是传参就是在init方法里面,面向对象的时候,我们是不是学过

def __init__(self,person):

super().__init__()

self.person=persondefrun(self):print(os.getpid())print(self.pid)print(self.pid)print('%s 正在和女主播聊天' %self.person)#def start(self):

##如果你非要写一个start方法,可以这样写,并且在run方法前后,可以写一些其他的逻辑

#self.run()

if __name__ == '__main__':

p1=MyProcess('Jedan')

p2=MyProcess('太白')

p3=MyProcess('alexDSB')

p1.start()#start内部会自动调用run方法

p2.start()#p2.run()

p3.start()

p1.join()

p2.join()

p3.join()

第二种方式创建进程

进程之间的数据是隔离的:

#我们说进程之间的数据是隔离的,也就是数据不共享,看下面的验证

from multiprocessing importProcess

n=100 #首先我定义了一个全局变量,在windows系统中应该把全局变量定义在if __name__ == '__main__'之上就可以了

defwork():globaln

n=0print('子进程内:',n)if __name__ == '__main__':

p=Process(target=work)

p.start()

p.join()#等待子进程执行完毕,如果数据共享的话,我子进程是不是通过global将n改为0了,但是你看打印结果,主进程在子进程执行结束之后,仍然是n=100,子进程n=0,说明子进程对n的修改没有在主进程中生效,说明什么?说明他们之间的数据是隔离的,互相不影响的

print('主进程内:',n)#看结果:#子进程内: 0#主进程内: 100

实例

Process对象的其他方法或属性(简单了解一下就可以啦)

#进程对象的其他方法一:terminate,is_alive

from multiprocessing importProcessimporttimeimportrandomclassPiao(Process):def __init__(self,name):

self.name=name

super().__init__()defrun(self):print('%s is 打飞机' %self.name)#s = input('???') #别忘了再pycharm下子进程中不能input输入,会报错EOFError: EOF when reading a line,因为子进程中没有像我们主进程这样的在pycharm下的控制台可以输入东西的地方

time.sleep(2)print('%s is 打飞机结束' %self.name)if __name__ == '__main__':

p1=Piao('太白')

p1.start()

time.sleep(5)

p1.terminate()#关闭进程,不会立即关闭,有个等着操作系统去关闭这个进程的时间,所以is_alive立刻查看的结果可能还是存活,但是稍微等一会,就被关掉了

print(p1.is_alive()) #结果为True

print('等会。。。。')

time.sleep(1)print(p1.is_alive()) #结果为False

terminate和is_alive

from multiprocessing importProcessimporttimeimportrandomclassPiao(Process):def __init__(self,name):#self.name=name

#super().__init__() #Process的__init__方法会执行self.name=Piao-1,

##所以加到这里,会覆盖我们的self.name=name

#为我们开启的进程设置名字的做法

super().__init__()

self.name=namedefrun(self):print('%s is piaoing' %self.name)

time.sleep(random.randrange(1,3))print('%s is piao end' %self.name)

p=Piao('egon')

p.start()print('开始')print(p.pid) #查看pid

name与pid

僵尸进程与孤儿进程(简单了解 一下就可以啦)

一:僵尸进程(有害)

僵尸进程:一个进程使用fork创建子进程,如果子进程退出,而父进程并没有调用wait或waitpid获取子进程的状态信息,那么子进程的进程描述符仍然保存在系统中。这种进程称之为僵死进程。详解如下

我们知道在unix/linux中,正常情况下子进程是通过父进程创建的,子进程在创建新的进程。子进程的结束和父进程的运行是一个异步过程,即父进程永远无法预测子进程到底什么时候结束,如果子进程一结束就立刻回收其全部资源,那么在父进程内将无法获取子进程的状态信息。

因此,UNⅨ提供了一种机制可以保证父进程可以在任意时刻获取子进程结束时的状态信息:1、在每个进程退出的时候,内核释放该进程所有的资源,包括打开的文件,占用的内存等。但是仍然为其保留一定的信息(包括进程号the process ID,退出状态the termination status of the process,运行时间the amount of CPU time taken by the process等)2、直到父进程通过wait / waitpid来取时才释放. 但这样就导致了问题,如果进程不调用wait /waitpid的话,那么保留的那段信息就不会释放,其进程号就会一直被占用,但是系统所能使用的进程号是有限的,如果大量的产生僵死进程,将因为没有可用的进程号而导致系统不能产生新的进程. 此即为僵尸进程的危害,应当避免。

任何一个子进程(init除外)在exit()之后,并非马上就消失掉,而是留下一个称为僵尸进程(Zombie)的数据结构,等待父进程处理。这是每个子进程在结束时都要经过的阶段。如果子进程在exit()之后,父进程没有来得及处理,这时用ps命令就能看到子进程的状态是“Z”。如果父进程能及时 处理,可能用ps命令就来不及看到子进程的僵尸状态,但这并不等于子进程不经过僵尸状态。 如果父进程在子进程结束之前退出,则子进程将由init接管。init将会以父进程的身份对僵尸状态的子进程进行处理。

二:孤儿进程(无害)

孤儿进程:一个父进程退出,而它的一个或多个子进程还在运行,那么那些子进程将成为孤儿进程。孤儿进程将被init进程(进程号为1)所收养,并由init进程对它们完成状态收集工作。

孤儿进程是没有父进程的进程,孤儿进程这个重任就落到了init进程身上,init进程就好像是一个民政局,专门负责处理孤儿进程的善后工作。每当出现一个孤儿进程的时候,内核就把孤 儿进程的父进程设置为init,而init进程会循环地wait()它的已经退出的子进程。这样,当一个孤儿进程凄凉地结束了其生命周期的时候,init进程就会代表党和政府出面处理它的一切善后工作。因此孤儿进程并不会有什么危害。

我们来测试一下(创建完子进程后,主进程所在的这个脚本就退出了,当父进程先于子进程结束时,子进程会被init收养,成为孤儿进程,而非僵尸进程),文件内容importosimportsysimporttime

pid=os.getpid()

ppid=os.getppid()print 'im father', 'pid', pid, 'ppid', ppid

pid=os.fork()#执行pid=os.fork()则会生成一个子进程#返回值pid有两种值:#如果返回的pid值为0,表示在子进程当中#如果返回的pid值>0,表示在父进程当中

if pid >0:print 'father died..'sys.exit(0)#保证主线程退出完毕

time.sleep(1)print 'im child', os.getpid(), os.getppid()

执行文件,输出结果:

im father pid32515 ppid 32015father died..

im child32516 1看,子进程已经被pid为1的init进程接收了,所以僵尸进程在这种情况下是不存在的,存在只有孤儿进程而已,孤儿进程声明周期结束自然会被init来销毁。

三:僵尸进程危害场景:

例如有个进程,它定期的产 生一个子进程,这个子进程需要做的事情很少,做完它该做的事情之后就退出了,因此这个子进程的生命周期很短,但是,父进程只管生成新的子进程,至于子进程 退出之后的事情,则一概不闻不问,这样,系统运行上一段时间之后,系统中就会存在很多的僵死进程,倘若用ps命令查看的话,就会看到很多状态为Z的进程。 严格地来说,僵死进程并不是问题的根源,罪魁祸首是产生出大量僵死进程的那个父进程。因此,当我们寻求如何消灭系统中大量的僵死进程时,答案就是把产生大 量僵死进程的那个元凶枪毙掉(也就是通过kill发送SIGTERM或者SIGKILL信号啦)。枪毙了元凶进程之后,它产生的僵死进程就变成了孤儿进 程,这些孤儿进程会被init进程接管,init进程会wait()这些孤儿进程,释放它们占用的系统进程表中的资源,这样,这些已经僵死的孤儿进程 就能瞑目而去了。

四:测试#1、产生僵尸进程的程序test.py内容如下

#coding:utf-8

from multiprocessing importProcessimporttime,osdefrun():print('子',os.getpid())if __name__ == '__main__':

p=Process(target=run)

p.start()print('主',os.getpid())

time.sleep(1000)#2、在unix或linux系统上执行

[root@vm172-31-0-19 ~]#python3 test.py &

[1] 18652[root@vm172-31-0-19 ~]#主 18652

子 18653[root@vm172-31-0-19 ~]#ps aux |grep Z

USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND

root18653 0.0 0.0 0 0 pts/0 Z 20:02 0:00 [python3] #出现僵尸进程

root 18656 0.0 0.0 112648 952 pts/0 S+ 20:02 0:00 grep --color=auto Z

[root@vm172-31-0-19 ~]#top #执行top命令发现1zombie

top - 20:03:42 up 31 min, 3 users, load average: 0.01, 0.06, 0.12Tasks:93 total, 2 running, 90 sleeping, 0 stopped, 1zombie%Cpu(s): 0.0 us, 0.3 sy, 0.0 ni, 99.7 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0st

KiB Mem :1016884 total, 97184 free, 70848 used, 848852 buff/cache

KiB Swap: 0 total, 0 free, 0 used.782540avail Mem

PID USER PR NI VIRT RES SHR S%CPU %MEM TIME+COMMAND

root20 0 29788 1256 988 S 0.3 0.1 0:01.50elfin#3、

等待父进程正常结束后会调用wait/waitpid去回收僵尸进程

但如果父进程是一个死循环,永远不会结束,那么该僵尸进程就会一直存在,僵尸进程过多,就是有害的

解决方法一:杀死父进程

解决方法二:对开启的子进程应该记得使用join,join会回收僵尸进程

参考python2源码注释classProcess(object):def join(self, timeout=None):'''Wait until child process terminates'''

assert self._parent_pid == os.getpid(), 'can only join a child process'

assert self._popen is not None, 'can only join a started process'res=self._popen.wait(timeout)if res is notNone:

_current_process._children.discard(self)

join方法中调用了wait,告诉系统释放僵尸进程。discard为从自己的children中剔除

解决方法三:http://blog.csdn.net/u010571844/article/details/50419798

僵尸进程与孤儿进程

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值