python之路-进程

 

python之路——进程

 

阅读目录

  • 理论知识
    • 操作系统背景知识
    • 什么是进程
    • 进程调度
    • 进程的并发与并行
    • 同步\异步\阻塞\非阻塞
    • 进程的创建与结束
  • 在python程序中的进程操作
    • multiprocess模块
    • 进程的创建和multiprocess.Process
    • 进程同步控制 —— 锁\信号量\事件 
      (multiprocess.Lock、multiprocess.Semaphore、multiprocess.Event)
    • 进程间通信 —— 队列和管道(multiprocess.Queue、multiprocess.Pipe)
    • 进程间的数据共享 —— multiprocess.Manager
    • 进程池和multiprocess.Pool

理论知识

操作系统背景知识

顾名思义,进程即程序正在执行的一个过程。进程是对正在运行的程序的一个抽象。

进程的概念起源于操作系统,是操作系统最核心的概念,也是操作系统提供的最古老也是最重要的抽象概念之一。操作系统的其他所有内容都是围绕进程的概念展开的。

所以想要真正了解进程,必须事先了解操作系统,点击进入    

PS:即使可以利用的cpu只有一个(早期的计算机确实如此),也能保证支持(伪)并发的能力。将一个单独的cpu变成多个虚拟的cpu(多道技术:时间多路复用和空间多路复用+硬件上支持隔离),没有进程的抽象,现代计算机将不复存在。

必备的理论基础:

#一 操作系统的作用:
    1:隐藏丑陋复杂的硬件接口,提供良好的抽象接口
    2:管理、调度进程,并且将多个进程对硬件的竞争变得有序

#二 多道技术:
    1.产生背景:针对单核,实现并发
    ps:
    现在的主机一般是多核,那么每个核都会利用多道技术
    有4个cpu,运行于cpu1的某个程序遇到io阻塞,会等到io结束再重新调度,会被调度到4个
    cpu中的任意一个,具体由操作系统调度算法决定。
    
    2.空间上的复用:如内存中同时有多道程序
    3.时间上的复用:复用一个cpu的时间片
       强调:遇到io切,占用cpu时间过长也切,核心在于切之前将进程的状态保存下来,这样
            才能保证下次切换回来时,能基于上次切走的位置继续运行

什么是进程

进程(Process)是计算机中的程序关于某数据集合上的一次运行活动,是系统进行资源分配和调度的基本单位,是操作系统结构的基础。在早期面向进程设计的计算机结构中,进程是程序的基本执行实体;在当代面向线程设计的计算机结构中,进程是线程的容器,线程是程序的基本执行实体。程序是指令、数据及其组织形式的描述,进程是程序的实体。

狭义定义:进程是正在运行的程序的实例(an instance of a computer program that is being executed)。
广义定义:进程是一个具有一定独立功能的程序关于某个数据集合的一次运行活动。它是 操作系统动态执行的 基本单元,在传统的 操作系统中,进程既是基本的 分配单元,也是基本的执行单元。
第一,进程是一个实体。每一个进程都有它自己的地址空间,一般情况下,包括文本区域(text region)、数据区域(data region)和堆栈(stack region)。文本区域存储处理器执行的代码;数据区域存储变量和进程执行期间使用的动态分配的内存;堆栈区域存储着活动过程调用的指令和本地变量。
第二,进程是一个“执行中的程序”。程序是一个没有生命的实体,只有处理器赋予程序生命时(操作系统执行之),它才能成为一个活动的实体,我们称其为进程。[3] 
进程是操作系统中最基本、重要的概念。是多道程序系统出现后,为了刻画系统内部出现的动态情况,描述系统内部各道程序的活动规律引进的一个概念,所有多道程序设计操作系统都建立在进程的基础上。

进程的概念
进程的概念
从理论角度看,是对正在运行的程序过程的抽象;
从实现角度看,是一种数据结构,目的在于清晰地刻画动态系统的内在规律,有效管理和调度进入计算机系统主存储器运行的程序。
操作系统引入进程的概念的原因
动态性:进程的实质是程序在多道程序系统中的一次执行过程,进程是动态产生,动态消亡的。
并发性:任何进程都可以同其他进程一起并发执行
独立性:进程是一个能独立运行的基本单位,同时也是系统分配资源和调度的独立单位;
异步性:由于进程间的相互制约,使进程具有执行的间断性,即进程按各自独立的、不可预知的速度向前推进
结构特征:进程由程序、数据和进程控制块三部分组成。
多个不同的进程可以包含相同的程序:一个程序在不同的数据集里就构成不同的进程,能得到不同的结果;但是执行过程中,程序不能发生改变。

进程的特征
进程的特征
程序是指令和数据的有序集合,其本身没有任何运行的含义,是一个静态的概念。
而进程是程序在处理机上的一次执行过程,它是一个动态的概念。
程序可以作为一种软件资料长期存在,而进程是有一定生命期的。
程序是永久的,进程是暂时的。
进程与程序中的区别

注意:同一个程序执行两次,就会在操作系统中出现两个进程,所以我们可以同时运行一个软件,分别做不同的事情也不会混乱。

进程调度

要想多个进程交替运行,操作系统必须对这些进程进行调度,这个调度也不是随机进行的,而是需要遵循一定的原则,由此就有了进程的调度算法。

先来先服务(FCFS)调度算法是一种最简单的调度算法,该算法既可用于作业调度,也可用于进程调度。FCFS算法比较有利于长作业(进程),而不利于短作业(进程)。由此可知,本算法适合于CPU繁忙型作业,而不利于I/O繁忙型的作业(进程)。
先来先服务调度算法
短作业(进程)优先调度算法(SJ/PF)是指对短作业或短进程优先调度的算法,该算法既可用于作业调度,也可用于进程调度。但其对长作业不利;不能保证紧迫性作业(进程)被及时处理;作业的长短只是被估算出来的。
短作业优先调度算法
时间片轮转(Round Robin,RR)法的基本思路是让每个进程在就绪队列中的等待时间与享受服务的时间成比例。在时间片轮转法中,需要将CPU的处理时间分成固定大小的时间片,例如,几十毫秒至几百毫秒。如果一个进程在被调度选中之后用完了系统规定的时间片,但又未完成要求的任务,则它自行释放自己所占有的CPU而排到就绪队列的末尾,等待下一次调度。同时,进程调度程序又去调度当前就绪队列中的第一个进程。
      显然,轮转法只能用来调度分配一些可以抢占的资源。这些可以抢占的资源可以随时被剥夺,而且可以将它们再分配给别的进程。CPU是可抢占资源的一种。但打印机等资源是不可抢占的。由于作业调度是对除了CPU之外的所有系统硬件资源的分配,其中包含有不可抢占资源,所以作业调度不使用轮转法。
在轮转法中,时间片长度的选取非常重要。首先,时间片长度的选择会直接影响到系统的开销和响应时间。如果时间片长度过短,则调度程序抢占处理机的次数增多。这将使进程上下文切换次数也大大增加,从而加重系统开销。反过来,如果时间片长度选择过长,例如,一个时间片能保证就绪队列中所需执行时间最长的进程能执行完毕,则轮转法变成了先来先服务法。时间片长度的选择是根据系统对响应时间的要求和就绪队列中所允许最大的进程数来确定的。
      在轮转法中,加入到就绪队列的进程有3种情况:
      一种是分给它的时间片用完,但进程还未完成,回到就绪队列的末尾等待下次调度去继续执行。
      另一种情况是分给该进程的时间片并未用完,只是因为请求I/O或由于进程的互斥与同步关系而被阻塞。当阻塞解除之后再回到就绪队列。
      第三种情况就是新创建进程进入就绪队列。
      如果对这些进程区别对待,给予不同的优先级和时间片从直观上看,可以进一步改善系统服务质量和效率。例如,我们可把就绪队列按照进程到达就绪队列的类型和进程被阻塞时的阻塞原因分成不同的就绪队列,每个队列按FCFS原则排列,各队列之间的进程享有不同的优先级,但同一队列内优先级相同。这样,当一个进程在执行完它的时间片之后,或从睡眠中被唤醒以及被创建之后,将进入不同的就绪队列。  

时间片轮转法
时间片轮转法
前面介绍的各种用作进程调度的算法都有一定的局限性。如短进程优先的调度算法,仅照顾了短进程而忽略了长进程,而且如果并未指明进程的长度,则短进程优先和基于进程长度的抢占式调度算法都将无法使用。
而多级反馈队列调度算法则不必事先知道各种进程所需的执行时间,而且还可以满足各种类型进程的需要,因而它是目前被公认的一种较好的进程调度算法。在采用多级反馈队列调度算法的系统中,调度算法的实施过程如下所述。
(1) 应设置多个就绪队列,并为各个队列赋予不同的优先级。第一个队列的优先级最高,第二个队列次之,其余各队列的优先权逐个降低。该算法赋予各个队列中进程执行时间片的大小也各不相同,在优先权愈高的队列中,为每个进程所规定的执行时间片就愈小。例如,第二个队列的时间片要比第一个队列的时间片长一倍,……,第i+1个队列的时间片要比第i个队列的时间片长一倍。
(2) 当一个新进程进入内存后,首先将它放入第一队列的末尾,按FCFS原则排队等待调度。当轮到该进程执行时,如它能在该时间片内完成,便可准备撤离系统;如果它在一个时间片结束时尚未完成,调度程序便将该进程转入第二队列的末尾,再同样地按FCFS原则等待调度执行;如果它在第二队列中运行一个时间片后仍未完成,再依次将它放入第三队列,……,如此下去,当一个长作业(进程)从第一队列依次降到第n队列后,在第n 队列便采取按时间片轮转的方式运行。

(3) 仅当第一队列空闲时,调度程序才调度第二队列中的进程运行;仅当第1~(i-1)队列均空时,才会调度第i队列中的进程运行。如果处理机正在第i队列中为某进程服务时,又有新进程进入优先权较高的队列(第1~(i-1)中的任何一个队列),则此时新进程将抢占正在运行进程的处理机,即由调度程序把正在运行的进程放回到第i队列的末尾,把处理机分配给新到的高优先权进程。

多级反馈队列
多级反馈队列

进程的并行与并发

并行 : 并行是指两者同时执行,比如有两条车道,在某一个时间点,两条车道上都有车在跑;(资源够用,比如三个线程,四核的CPU )

并发 : 并发是指资源有限的情况下,两者交替轮流使用资源,比如只有一条车道(单核CPU资源),那么就是A车先走,在某个时刻A车退出把道路让给B走,B走完继续给A ,交替使用,目的是提高效率。

区别:

并行是从微观上,也就是在一个精确的时间片刻,有不同的程序在执行,这就要求必须有多个处理器。
并发是从宏观上,在一个时间段上可以看出是同时执行的,比如一个服务器同时处理多个session。

注意:早期单核CPU时候,对于进程也是微观上串行(站在cpu角度看),宏观上并行(站在人的角度看就是同时有很多程序在执行)。

同步异步阻塞非阻塞

状态介绍

  在了解其他概念之前,我们首先要了解进程的几个状态。在程序运行的过程中,由于被操作系统的调度算法控制,程序会进入几个状态:就绪,运行和阻塞。

  (1)就绪(Ready)状态

  当进程已分配到除CPU以外的所有必要的资源,只要获得处理机便可立即执行,这时的进程状态称为就绪状态。

  (2)执行/运行(Running)状态当进程已获得处理机,其程序正在处理机上执行,此时的进程状态称为执行状态。

  (3)阻塞(Blocked)状态正在执行的进程,由于等待某个事件发生而无法执行时,便放弃处理机而处于阻塞状态。引起进程阻塞的事件可有多种,例如,等待I/O完成(input)、申请缓冲区不能满足、等待信件(信号)等。

      

同步和异步

      所谓同步就是一个任务的完成需要依赖另外一个任务时,只有等待被依赖的任务完成后,依赖的任务才能算完成,这是一种可靠的任务序列。要么成功都成功,失败都失败,两个任务的状态可以保持一致。

  所谓异步是不需要等待被依赖的任务完成,只是通知被依赖的任务要完成什么工作,依赖的任务也立即执行,只要自己完成了整个任务就算完成了。至于被依赖的任务最终是否真正完成,依赖它的任务无法确定,所以它是不可靠的任务序列

比如我去银行办理业务,可能会有两种方式:
第一种 :选择排队等候;
第二种 :选择取一个小纸条上面有我的号码,等到排到我这一号时由柜台的人通知我轮到我去办理业务了;

第一种:前者(排队等候)就是同步等待消息通知,也就是我要一直在等待银行办理业务情况;

第二种:后者(等待别人通知)就是异步等待消息通知。在异步消息处理中,等待消息通知者(在这个例子中就是等待办理业务的人)往往注册一个回调机制,在所等待的事件被触发时由触发机制(在这里是柜台的人)通过某种机制(在这里是写在小纸条上的号码,喊号)找到等待该事件的人。

例子
例子

阻塞与非阻塞

      阻塞和非阻塞这两个概念与程序(线程)等待消息通知(无所谓同步或者异步)时的状态有关。也就是说阻塞与非阻塞主要是程序(线程)等待消息通知时的状态角度来说的

继续上面的那个例子,不论是排队还是使用号码等待通知,如果在这个等待的过程中,等待者除了等待消息通知之外不能做其它的事情,那么该机制就是阻塞的,表现在程序中,也就是该程序一直阻塞在该函数调用处不能继续往下执行。
相反,有的人喜欢在银行办理这些业务的时候一边打打电话发发短信一边等待,这样的状态就是非阻塞的,因为他(等待者)没有阻塞在这个消息通知上,而是一边做自己的事情一边等待。

注意:同步非阻塞形式实际上是效率低下的,想象一下你一边打着电话一边还需要抬头看到底队伍排到你了没有。如果把打电话和观察排队的位置看成是程序的两个操作的话,这个程序需要在这两种不同的行为之间来回的切换,效率可想而知是低下的;而异步非阻塞形式却没有这样的问题,因为打电话是你(等待者)的事情,而通知你则是柜台(消息触发机制)的事情,程序没有在两种不同的操作中来回切换。

例子
例子

同步/异步与阻塞/非阻塞

  1. 同步阻塞形式

  效率最低。拿上面的例子来说,就是你专心排队,什么别的事都不做。

  1. 异步阻塞形式

  如果在银行等待办理业务的人采用的是异步的方式去等待消息被触发(通知),也就是领了一张小纸条,假如在这段时间里他不能离开银行做其它的事情,那么很显然,这个人被阻塞在了这个等待的操作上面;

  异步操作是可以被阻塞住的,只不过它不是在处理消息时阻塞,而是在等待消息通知时被阻塞。

  1. 同步非阻塞形式

  实际上是效率低下的。

  想象一下你一边打着电话一边还需要抬头看到底队伍排到你了没有(两个操作不能同时执行,因为是同步),如果把打电话和观察排队的位置看成是程序的两个操作的话,这个程序需要在这两种不同的行为之间来回的切换,效率可想而知是低下的。

  1. 异步非阻塞形式

  效率更高,

  因为打电话是你(等待者)的事情,而通知你则是柜台(消息触发机制)的事情,程序没有在两种不同的操作中来回切换

  比如说,这个人突然发觉自己烟瘾犯了,需要出去抽根烟,于是他告诉大堂经理说,排到我这个号码的时候麻烦到外面通知我一下,那么他就没有被阻塞在这个等待的操作上面,自然这个就是异步+非阻塞的方式了。

  

很多人会把同步和阻塞混淆,是因为很多时候同步操作会以阻塞的形式表现出来,同样的,很多人也会把异步和非阻塞混淆,因为异步操作一般都不会在真正的IO操作处被阻塞

进程的创建与结束

进程的创建

  但凡是硬件,都需要有操作系统去管理,只要有操作系统,就有进程的概念,就需要有创建进程的方式,一些操作系统只为一个应用程序设计,比如微波炉中的控制器,一旦启动微波炉,所有的进程都已经存在。

  而对于通用系统(跑很多应用程序),需要有系统运行过程中创建或撤销进程的能力,主要分为4中形式创建新的进程:

  1. 系统初始化(查看进程linux中用ps命令,windows中用任务管理器,前台进程负责与用户交互,后台运行的进程与用户无关,运行在后台并且只在需要时才唤醒的进程,称为守护进程,如电子邮件、web页面、新闻、打印)

  2. 一个进程在运行过程中开启了子进程(如nginx开启多进程,os.fork,subprocess.Popen等)

  3. 用户的交互式请求,而创建一个新进程(如用户双击暴风影音)

  4. 一个批处理作业的初始化(只在大型机的批处理系统中应用)

  无论哪一种,新进程的创建都是由一个已经存在的进程执行了一个用于创建进程的系统调用而创建的。  

1. 在UNIX中该系统调用是:fork,fork会创建一个与父进程一模一样的副本,二者有相同的存储映像、同样的环境字符串和同样的打开文件(在shell解释器进程中,执行一个命令就会创建一个子进程)

  2. 在windows中该系统调用是:CreateProcess,CreateProcess既处理进程的创建,也负责把正确的程序装入新进程。

  关于创建子进程,UNIX和windows

  1.相同的是:进程创建后,父进程和子进程有各自不同的地址空间(多道技术要求物理层面实现进程之间内存的隔离),任何一个进程的在其地址空间中的修改都不会影响到另外一个进程。

  2.不同的是:在UNIX中,子进程的初始地址空间是父进程的一个副本,提示:子进程和父进程是可以有只读的共享内存区的。但是对于windows系统来说,从一开始父进程与子进程的地址空间就是不同的。

创建进程
创建进程

进程的结束

  1. 正常退出(自愿,如用户点击交互式页面的叉号,或程序执行完毕调用发起系统调用正常退出,在linux中用exit,在windows中用ExitProcess)

  2. 出错退出(自愿,python a.py中a.py不存在)

  3. 严重错误(非自愿,执行非法指令,如引用不存在的内存,1/0等,可以捕捉异常,try...except...)

  4. 被其他进程杀死(非自愿,如kill -9)

在python程序中的进程操作

  之前我们已经了解了很多进程相关的理论知识,了解进程是什么应该不再困难了,刚刚我们已经了解了,运行中的程序就是一个进程。所有的进程都是通过它的父进程来创建的。因此,运行起来的python程序也是一个进程,那么我们也可以在程序中再创建进程。多个进程可以实现并发效果,也就是说,当我们的程序中存在多个进程的时候,在某些时候,就会让程序的执行速度变快。以我们之前所学的知识,并不能实现创建进程这个功能,所以我们就需要借助python中强大的模块。

multiprocessing模块

      仔细说来,multiprocessing不是一个模块而是python中一个操作、管理进程的包。 之所以叫multi是取自multiple的多功能的意思,在这个包中几乎包含了和进程有关的所有子模块。由于提供的子模块非常多,为了方便大家归类记忆,我将这部分大致分为四个部分:创建进程部分,进程同步部分,进程池部分,进程之间数据共享。

multiprocessing.process模块

process模块介绍

process模块是一个创建进程的模块,借助这个模块,就可以完成进程的创建。

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)

强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号

参数介绍:
group参数未使用,值始终为None
target表示调用对象,即子进程要执行的任务
args表示调用对象的位置参数元组,args=(1,2,'egon',)
kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}
name为子进程的名称
View Code
p.start():启动进程,并调用该子进程中的p.run() 
p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法  
p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
p.is_alive():如果p仍然运行,返回True
p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程  

方法介绍
方法介绍
p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
p.name:进程的名称
p.pid:进程的pid
p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)

属性介绍
属性介绍
在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动 import 启动它的这个文件,而在 import 的时候又执行了整个文件。因此如果将process()直接写在文件中就会无限递归创建子进程报错。所以必须把创建子进程的部分使用if __name__ ==‘__main__’ 判断保护起来,import 的时候  ,就不会递归运行了。
在windows中使用process模块的注意事项

使用process模块创建进程

在一个python进程中开启子进程,start方法和并发效果。

 1 from multiprocessing import Process
 2 import time
 3 
 4 def func():
 5     time.sleep(1)
 6     print('这里是son')
 7 
 8 if __name__ == '__main__':
 9     p = Process(target = func)
10     p.start()
11     time.sleep(2)
12     print('这里是father')
python 开启第一个子进程
from multiprocessing import Process
import time

def func(name):
    print('son 的名字是 %s '%name)
    time.sleep(5)
    print('这里是son')

if __name__ == '__main__':
    p = Process(target = func,args=('Alex',))
    p.start()
    time.sleep(2)
    p.join()# 代码执行到这里,主进程main会停止等待子进程执行完毕才继续
    print('这里是father')
join 方法
from multiprocessing import Process
import os

def func():
    print('我是子进程,我的进程id是%s,我爸爸的id是%s'%(os.getpid(),os.getppid()))

if __name__ == '__main__':
    print('我是main爸爸,我的进程id是%s' % os.getpid())
    for i in range(5):
        p = Process(target = func,args=())
        p.start()
查看子进程和父进程的id号

 

进阶,多个进程同时执行(注意:子进程的执行顺序并不受开启子进程的顺序影响)

from multiprocessing import Process
import time
def func(i):
    print('这里是第%s个子进程'%(i))
    time.sleep(1)

if __name__ == '__main__':
    print('这里是main爸爸')
    for i in range(5):
        p = Process(target = func,args=(i,))
        p.start()
多个进程同时执行
from multiprocessing import Process
import time
def func(i):
    print('这里是第%s个子进程'%(i))
    time.sleep(1)

if __name__ == '__main__':
    for i in range(5):
        p = Process(target = func,args=(i,))
        p.start()
        p.join()# main会停在这一句,等子进程执行完,再继续走,也就是才再走下一次for循环

    print('这里是main爸爸')
join在搞事情(1)
from multiprocessing import Process
import time
def func(i):
    print('这里是第%s个子进程'%(i))
    time.sleep(1)

if __name__ == '__main__':
    p_l = []
    for i in range(5):
        p = Process(target = func,args=(i,))
        p.start()
        p_l.append(p)
    [i.join() for i in p_l]
    print('这里是main爸爸')
join在搞事情(2)

 

 上边是直接开启多进程,接下来介绍一个高大上的方法 -- 继承Process类的方式

from multiprocessing import Process
import os
class MyProcess(Process):
    def __init__(self,name):
        super().__init__()
        self.name = name

    def run(self):
        print('我是%s,我正在和苍老师谈人生,我的id是%s'%(self.name,os.getpid()))


if __name__ == '__main__':
    p1 = MyProcess('WuSir')
    p2 = MyProcess('邱老板')
    p3 = MyProcess('金老板')
    p1.start()# 调用start方法,start方法内自动调用run方法
    p2.start()
    # p2.run()
    p3.start()
    p1.join()
    p2.join()# 注意,如果调用run方法,就不能再调用join方法
    p3.join()
    print('我是main爸爸')
继承那些事(Process)

 多进程之间关于数据隔离的那些年那些事儿

from multiprocessing import Process

def func():
    global n
    n = 0
    print('子进程内 n = %s'%n)

if __name__ == '__main__':
    n = 100
    p = Process(target=func)
    p.start()
    print('主进程内 n = %s'%n)
多进程之间数据隔离

守护进程                                                    

会随着父进程的结束而结束。

父进程创建守护进程

  其一:守护进程会在父进程代码执行结束后就终止

  其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children

注意:进程之间是互相独立的,父进程代码运行结束,守护进程随即终止

from multiprocessing import Process
import time

def func():
    print('子进程开始执行')
    time.sleep(2)
    print('子进程结束执行')

if __name__ == '__main__':
    print('主进程开始执行')
    p = Process(target=func1,)
    p.daemon = True# 将p 设置为守护进程,此代码一定要在start之前设置。
    p.start()
    time.sleep(1)
    print('主进程结束执行')
守护进程的启动
from multiprocessing import Process
import time

def func2():
    print('子进程2开始执行')
    time.sleep(2)
    print('子进程2结束执行')

def func1():
    print('子进程开始执行')
    time.sleep(2)
    print('子进程结束执行')

if __name__ == '__main__':
    print('主进程开始执行')
    p1 = Process(target=func1,)
    p2 = Process(target=func2)
    p1.daemon = True# 将p1 设置为守护进程,此代码一定要在start之前设置。
    p1.start()
    p2.start()
    time.sleep(1)# 此时p1 p2 和main 都已经开始执行
    print('主进程结束执行')# 当主进程打印完这句话,代表主进程结束,守护进程p1肯定随之结束
    # 但是p2 不是守护进程,不会结束,所以此时程序(也就是主进程)会等待p2结束之后才结束。
守护进程会随着父进程结束而结束

socket tcp协议并发实现聊天                                                   

from multiprocessing import Process
import socket
from socket import SOL_SOCKET,SO_REUSEADDR
SERVER_ADDR = ('127.0.0.1',8080)

sk = socket.socket()
sk.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
sk.bind(SERVER_ADDR)

sk.listen(5)

def func(conn):
    while 1:
        try:
            msg_r = conn.recv(1024).decode('utf-8')
            print(msg_r)
            if not msg_r:break
            conn.send(msg_r.upper().encode('utf-8'))
        except:
            break

if __name__ == '__main__':
    while 1:
        conn,addr = sk.accept()
        p = Process(target=func,args=(conn,))
        p.start()

    sk.close()
socket-tcp协议并发实现_server
import socket

sk = socket.socket()
sk.connect(('127.0.0.1',8080))

while 1:
    msg_s = input('>>>')
    if not msg_s:continue
    sk.send(msg_s.encode('utf-8'))
    print(sk.recv(1024).decode('utf-8'))
sk.close()
socket-tcp协议并发实现_client

 

 多进程中其他方法                                       

from multiprocessing import Process
import random
import time

class MyProcess(Process):
    def __init__(self,name):
        super(MyProcess, self).__init__()
        self.name = name# name是父类Process中的属性,这里相当于给子进程命名
    def run(self):
        print('%s 正在撩小姐姐'%self.name)
        time.sleep(random.randint(1,3))
        print('%s 还在撩小姐姐'%self.name)

if __name__ == '__main__':
    p = MyProcess('Alex')
    p.start()
    time.sleep(0.1)
    p.terminate()# 将p进程杀死的命令。 将任务提交给操作系统,操作系统什么时候执行不受用户决定
    print(p.is_alive())# 判断p进程是否还存在
    time.sleep(1)
    print(p.is_alive())# 判断p进程是否还存在
进程的terminate和is_alive方法
from multiprocessing import Process
import random
import time

class MyProcess(Process):
    def __init__(self,name):
        super(MyProcess, self).__init__()
        self.name = name# name是父类Process中的属性,这里相当于给子进程命名
    def run(self):
        print('%s 正在撩小姐姐'%self.name)
        time.sleep(random.randint(1,3))
        print('%s 还在撩小姐姐'%self.name)

if __name__ == '__main__':
    p = MyProcess('Alex')
    p.start()
    print(p.name,p.pid)# 打印进程名字,进程id号
进程的name和pid属性

 

 

 

进程同步(multiprocessing.Lock、multiprocessing.Semaphore、multiprocessing.Event)

       在计算机中,有一些硬件和软件,例如处理器、打印机等,都属于竞争类资源,当有需求时,很多进程都要争抢这些资源,而对于这类资源,就属于临界资源。当多进程共同处理某一个数据时,这个数据也就属于一个临界资源。操作系统对计算机内各种资源都使其在竞争中有序化,但是对于数据来说,尤其是用户动态产生的数据,当处理时就变成了临界资源,所以我们作为程序猿来说,需要对临界资源加以保护,否则就会出现数据混乱现象。这是在提高程序效率的优势下,带来的一个隐患。小伙伴们,加油吧!

锁 —— multiprocessing.Lock  

       通过刚刚的学习,我们千方百计实现了程序的异步,让多个任务可以同时在几个进程中并发处理,他们之间的运行没有顺序(或者说由操作系统调度决定他们的顺序),一旦开启也不受我们控制。尽管并发编程让我们能更加充分的利用IO资源,但是也给我们带来了新的问题。

  当多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题。

from multiprocessing import Process
import random
import time

def func(addr):
    print('我是%s'%addr)
    time.sleep(random.random())
    print('谢谢!')

if __name__ == '__main__':
    l = ['四川的','湖南的','河南的','江苏的']
    for addr in l:
        p = Process(target=func,args=(addr,))
        p.start()
    time.sleep(2)
    print('\n\n我选%s'%random.choice(l))
# 关于抢占输出资源的事情,是指多进程并发执行时,并不是一个进程执行完任务后其他进程再执行。
# 比如 此程序会输出:我是四川的  我是河南的 我是江苏的 谢谢!谢谢!我是湖南的 谢谢! 谢谢!
# 而不是 : 我是四川的 谢谢! 我是河南的 谢谢! ...
多进程关于抢占输出资源的事情
from multiprocessing import Process
import random
import time
from multiprocessing import Lock
def func(addr,lock):
    lock.acquire()
    print('我是%s'%addr)
    time.sleep(random.random())
    print('谢谢!')
    lock.release()

if __name__ == '__main__':
    lock = Lock()
    l = ['四川的','湖南的','河南的','江苏的']
    for addr in l:
        p = Process(target=func,args=(addr,lock))
        p.start()
    time.sleep(4)
    print('\n\n我选%s'%random.choice(l))
使用锁维护输出资源

 

     上面这种情况,使用了加锁的形式确保了程序的顺序执行,但是执行又变成了串行,降低了效率,但是不得不说,它确保了数据的安全性。

      下面举例来说锁的重要性:模拟12306抢票问题。模拟银行账户的存取款问题。

# 注意,文件中存储需要以{'c':1}这种形式,c的引号一定要带
# 否则json识别不出来
# 此代码的效果,并发执行,但是多进程同时读写同一个文件数据,造成数据混乱

from multiprocessing import Process,Lock
import json
import time

def check(i,l):
    with open('a.txt','r',encoding='utf-8') as f:
        dic = json.load(f)
    print('第%s个人在查票,余票为%s' % (i, dic['c']))
    pay(i,l)

def pay(i,l):
    with open('a.txt','r',encoding='utf-8') as f:
        dic = json.load(f)
    time.sleep(0.5)# 模拟网络延迟,当购买过程中也会有网络延迟
    if dic['c']:
        print('第%s个人买到票了 '%i)
        dic['c'] -= 1
    else:
        print('第%s个人没买到票'%i)
    with open('a.txt','w') as f:
        json.dump(dic,f)

if __name__ == '__main__':
    l = Lock()
    for i in range(10):
        p = Process(target=check,args=(i+1,l))
        p.start()
多个人同时抢票

很明显,上述例子中,因为多进程同时对一个临界资源(a.txt文件)进行了读写操作,使文件内数据混乱,也造成了余票为1张,但是很多人都抢到票的假象。那就加锁来解决它吧

from multiprocessing import Process,Lock
import json
import time

def check(i,l):
    with open('a.txt','r',encoding='utf-8') as f:
        dic = json.load(f)
    print('第%s个人在查票,余票为%s' % (i, dic['c']))
    l.acquire()
    pay(i,l)# 为什么在这里加锁? 因为每个人都可以查票,读取数据,不会造成数据混乱,但是当买票的时候,就需要对临界资源的写入,所以对写操作加锁,使某一个进程在写文件时候,其他进程不能碰此文件。
    l.release()

def pay(i,l):
    with open('a.txt','r',encoding='utf-8') as f:
        dic = json.load(f)
    time.sleep(0.5)# 模拟网络延迟,当购买过程中也会有网络延迟
    if dic['c']:
        print('第%s个人买到票了 '%i)
        dic['c'] -= 1
    else:
        print('第%s个人没买到票'%i)
    with open('a.txt','w') as f:
        json.dump(dic,f)

if __name__ == '__main__':
    l = Lock()
    for i in range(10):
        p = Process(target=check,args=(i+1,l))
        p.start()
加锁解决买票问题

 

 关于银行存取款的问题。同一个账户,某个人一直存,某个人在同一时间一直取,如果不对数据进行保护起来,就会造成的一种数据混乱问题。

from multiprocessing import Process, Lock,Value

def save_money(num):
    for i in range(100):
        time.sleep(0.05)
        num.value += 1

def draw_money(num):
    for i in range(100):
        time.sleep(0.05)
        num.value -= 1

if __name__ == '__main__':
    num = Value('i',1000)# 多进程中共享数据,一个int类型的数据,1000
    man = Process(target=save_money,args=(num,))
    woman = Process(target=draw_money,args=(num,))
    man.start()
    woman.start()
    time.sleep(6)
    print(num.value)
钱多钱少怪谁?
from multiprocessing import Process, Lock,Value

def save_money(num,l):
    for i in range(100):
        time.sleep(0.05)
        l.acquire()
        num.value += 1
        l.release()

def draw_money(num,l):
    for i in range(100):
        time.sleep(0.05)
        l.acquire()# 在操作存取款的数据时,先将数据锁住,不允许其他人更改此数据
        num.value -= 1
        l.release()

if __name__ == '__main__':
    l = Lock()
    num = Value('i',1000)# 多进程中共享数据,一个int类型的数据,1000
    man = Process(target=save_money,args=(num,l))
    woman = Process(target=draw_money,args=(num,l))
    man.start()
    woman.start()
    time.sleep(6)
    print(num.value)
这样才对!!!

信号量 —— multiprocessing.Semaphore(了解)      

# 上述讲的Lock,属于互斥锁,也就是一把钥匙配备一把锁,同时只允许锁住某一个数据。而信号量则是多把钥匙配备多把锁,也就是说同时允许锁住多个数据。

比如在一个粉红发廊,里边有5位服务人员,那么这个发廊最多就同时允许进入5位客人,当又有第6位客人来的时候,就需要在门外等待;当服务人员服务完某位客人后,才允许后续的人再进来一个,换句话说,这个发廊最多同时接待5位客人,多的客人必须等待。

信号量同步基于内部计数器,用户初始化一个计数器初值(比如上述例子中就初始化为5),每调用一次acquire(),计数器减1;每调用一次release(),计数器加1。当计数器为0时,acquire()调用被阻塞。这是迪科斯彻(Dijkstra)信号量概念P()和V()的Python实现。信号量同步机制适用于访问像服务器这样的有限资源。信号量与进程池的概念很像,但是要区分开,信号量涉及到加锁的概念
信号量 Semaphore
from multiprocessing import Semaphore
from multiprocessing import Process
import time
import random

def sing(i,se):
    se.acquire()# 每次进来一位客人,信号量内部计数器减1
    print('%s进入小黑屋'%i)
    time.sleep(random.randint(1,3))
    print('%s交钱走人'%i)
    se.release()# 每次离开一位客人,信号量内部计数器加1


if __name__ == '__main__':
    se = Semaphore(5)# 初始化5把钥匙配备5把锁
    for i in range(10): # 模拟10个人要进入小黑屋子
        p = Process(target=sing,args=(i,se))
        p.start()
信号量机制举个栗子

事件 —— multiprocessing.Event(了解)                    

python中的事件机制,主要用于主进程控制其他进程的执行,事件主要提供了三个方法 set、wait、clear。

    事件处理的机制:全局定义了一个“Flag”(event.is_set()),如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。

clear:将“Flag”设置为False
set:将“Flag”设置为True
is_set:返回全局‘Flag’的bool值
事件 Event

 

def traffic_lights(e):
    while 1:
        if e.is_set():# 如果True,代表e.wait() 不阻塞
            time.sleep(5)# 这段时间代表绿灯亮的时间,可以过车
            print('\033[31m红灯亮!\033[0m')# 该红灯亮了
            e.clear()# 将e.is_set()改成False,
        else:# 执行car函数的进程们,读e.wait,因为上边已经是False,所以e.wait将会阻塞住
            time.sleep(5)# 红灯亮的期间
            print('\033[32m绿灯亮!\033[0m')# 该绿灯亮了
            e.set()# 将e.is_set()设置成True,此时e.wait()将不再阻塞,车可以过

def car(i,e):
    e.wait()# 读取是否阻塞,如果阻塞,代表在
    print('第%s辆车过'%i)

if __name__ == '__main__':
    e = Event()
    triff_light = Process(target=traffic_lights,args=(e,))
    triff_light.start()
    for i in range(50):
        cars = Process(target=car,args=(i,e))
        cars.start()
时间机制举个栗子

 

 

进程间通信——队列和管道(multiprocess.Queue、multiprocess.Pipe)

 进程间通信--IPC(Inter-Process Communication)

IPC的方法:此处介绍队列和管道

队列                                                                   

概念:创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。

Queue([maxsize]) 
创建共享的进程队列。
参数 :maxsize是队列中允许存在的最大元素个数。如果省略此参数,则无大小限制。
底层队列使用管道和锁定实现。
Queue([maxsize]) 

q = Queue([maxsize])

q.get( [ block [ ,timeout ] ] ) 
返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在指定的时间间隔内没有项目可用,将引发Queue.Empty异常。

q.get_nowait( ) 
同q.get(False)方法。

q.put(item [, block [,timeout ] ] ) 
将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。

q.qsize() 
返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。


q.empty() 
如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。

q.full() 
如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。。

方法介绍
Queue中的方法介绍
q.close() 
关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者中生成任何类型的数据结束信号或异常。例如,如果某个使用者正被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。

q.cancel_join_thread() 
不会再进程退出时自动连接后台线程。这可以防止join_thread()方法阻塞。

q.join_thread() 
连接队列的后台线程。此方法用于在调用q.close()方法后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread()方法可以禁止这种行为。

其他方法(了解)
需要你了解的几个方法

 

 代码示例                                 

from multiprocessing import Queue

q = Queue(4)
q.put(1)
q.put(2)
q.put(3)
q.put(4)
# q.put(5) #如果是put,因为已经放满数据,所以程序会阻塞在put,等待取出数据
# q.put_nowait(5) # 如果是put_nowait() ,不会阻塞,直接放入队列数据,队列满则报异常
try:
    q.put_nowait(5)# 在此处用try直接处理异常。此时数据不会放入到队列,会被直接丢弃
except:
    print('队列已满')

print(q.get())
print(q.get())
print(q.get())
print(q.get())
# print(q.get())# 此处和上边一样,因为队列中已空,所以程序会阻塞在get,等待放入数据
# q.get_nowait() # 不会阻塞,直接从队列中获取数据,获取不到则报错
try:
    q.get_nowait()# 在此处用try处理错误,此时获取不到数据,直接跳过
except:
    print('队列已空')
了解队列的用法

 上面这个例子还没有加入进程通信,只是先来看看队列为我们提供的方法,以及这些方法的使用和现象。

from multiprocessing import Queue,Process
import time
def func(q):
    # time.sleep(1)
    q.put('我是四川的')

if __name__ == '__main__':
    q = Queue(5)
    p = Process(target=func,args=(q,))
    p.start()
    #print(q.get_nowait())# 此处,可能会报错,因为子进程和父进程同时运行,不一定队列中有数据
    print(q.get())# 此处一定不会报错,因为get是阻塞获取数据,如果队列没有就等着
多进程中使用队列

 

 上面是一个queue的简单应用,使用队列q对象调用get函数来取得队列中最先进入的数据。 接下来看一个稍微复杂一些的例子:

from multiprocessing import Process, Queue,freeze_support
import random
import os

def put_func(q):
    info = str(os.getpid()) + '\t:\t' + str(random.randint(0, 100))
    q.put(info)

def get_func(q):
    print('%s 获取到数据 :\033[33m; %s \033[0m' % (os.getpid(), q.get()))

if __name__ == '__main__':
    # freeze_support() 如果有windows系统开启多进程导致程序崩溃,可尝试调用此函数
    q = Queue(5)
    l_put = []
    l_get = []
    for i in range(10):
        p_put = Process(target=put_func, args=(q,))
        p_put.start()
        l_put.append(p_put)

    for i in range(10):
        p_get = Process(target=get_func, args=(q,))
        p_get.start()
        l_put.append(p_get)

    # [i.join() for i in l_put]
    # [i.join() for i in l_get]
批量数据放入队列并批量获取
生产者消费者模型                                  

在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产进程和消费进程的工作能力来提高程序的整体处理数据的速度。

举个应用栗子:全栈开发时候,前端接收客户请求,后端处理请求逻辑。当某时刻客户请求过于多的时候,后端处理不过来,此时完全可以借助队列来辅助,将客户请求放入队列中,后端逻辑代码处理完一批客户请求后马上从队列中继续获取,这样平衡两端的效率。

为什么要使用生产者和消费者模式

进程世界里,生产者就是生产数据的进程,消费者就是消费数据的进程。在多进程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

什么是生产者消费者模式

生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

基于队列实现生产者消费者模型
from multiprocessing import Queue,Process
import time
import random

def get_func(q):
    while 1:
        time.sleep(random.randint(1, 3))
        info = q.get()
        print('\033[32m厂长拿走了%s \033[0m'%info)


def put_func(q):
    for i in range(20):
        info = '娃娃%s号'%i
        q.put(info)
        print('\033[31m生产了%s \033[0m' % info)
        time.sleep(random.randint(1, 3))


if __name__ == '__main__':
    q = Queue(5)
    p_get = Process(target=get_func, args=(q,))
    p_put = Process(target=put_func, args=(q,))

    p_get.start()
    p_put.start()
基于队列的生产者消费者模型

 

 上述代码是基于队列实现的生产者消费者模型,生产者一直在生产娃娃,消费者一直在从队列中获取娃娃,但是消费者因为不知道生产者要生产多少娃娃,也不知道生产者何时就不生产了,所以消费者需要一个死循环一直尝试去从队列中获取娃娃,那么此时问题就出现了,3个进程,主进程开启了两个子进程分别为生产者和消费者,当生产者生产完数据后,生产者结束,消费者一直在尝试接收数据,那么问题就出在了消费者的get方法这里,当get不到数据时候就一直阻塞,那么主进程就一直等待,此时程序就不会结束了。

解决方法也很简单,可以尝试让生产者在生产完数据后,再往队列中放一个结束生产的信号,当消费者接受到信号后,自动的break出死循环即可。

from multiprocessing import Queue,Process
import time
import random

def get_func(q):
    while 1:
        time.sleep(random.randint(1, 3))
        info = q.get()
        if info == None:break# 当获取到结束生产的标识时,消费者自动break出死循环
        print('\033[32m厂长拿走了%s \033[0m'%info)


def put_func(q):
    for i in range(20):
        info = '娃娃%s号'%i
        q.put(info)
        print('\033[31m生产了%s \033[0m' % info)
        time.sleep(random.randint(1, 3))
    q.put(None)# 放入一个结束生产的标识


if __name__ == '__main__':
    q = Queue(5)
    p_get = Process(target=get_func, args=(q,))
    p_put = Process(target=put_func, args=(q,))

    p_get.start()
    p_put.start()
修正版-消费者生产者模型

 注意:上述代码中,生产者放入的停止生产的标识,放入标识这件事其实交给主进程来做也可以,但是此时就需要主进程获取到生产者什么时候结束生产。

from multiprocessing import Queue,Process
import time
import random

def get_func(q):
    while 1:
        time.sleep(random.randint(1, 3))
        info = q.get()
        if info == None:break# 当获取到结束生产的标识时,消费者自动break出死循环
        print('\033[32m厂长拿走了%s \033[0m'%info)


def put_func(q):
    for i in range(20):
        info = '娃娃%s号'%i
        q.put(info)
        print('\033[31m生产了%s \033[0m' % info)
        time.sleep(random.randint(1, 3))


if __name__ == '__main__':
    q = Queue(5)
    p_get = Process(target=get_func, args=(q,))
    p_put = Process(target=put_func, args=(q,))

    p_get.start()
    p_put.start()

    p_put.join()# 让主进程可以获取到生产者结束生产
    q.put(None)
主进程发送结束生产标识

 当小伙子们尝试上述这个代码时,发现所有问题都阻挡不了你成功的脚步了,但是!!你有没有尝试过多个生产者多个消费者的模型?what fuck? 现在的解决方案是不是就很 low bee了!因为你会发现:(标题)

from multiprocessing import Queue,Process
import time
import random

def get_func(q,consumer):
    while 1:
        time.sleep(random.randint(1, 3))
        info = q.get()
        if info == None:break# 当获取到结束生产的标识时,消费者自动break出死循环
        print('\033[32m%s 拿走了%s \033[0m'%(consumer,info))


def put_func(q,product):
    for i in range(5):
        info = '%s %s号'%(product,i)
        q.put(info)
        print('\033[31m生产了%s \033[0m' % info)
        time.sleep(random.randint(1, 3))


if __name__ == '__main__':
    q = Queue(5)
    con1 = Process(target=get_func, args=(q,'Alex'))
    con2 = Process(target=get_func, args=(q,'WuSir'))
    
    pro1 = Process(target=put_func, args=(q,'苍老师版'))
    pro2 = Process(target=put_func, args=(q,'小泽玛雅丽版'))
    pro3 = Process(target=put_func, args=(q,'岛国米饭保你爱版'))

    pro1.start()
    pro2.start()
    pro3.start()

    con1.start()
    con2.start()

    pro1.join()# 让主进程可以获取到生产者结束生产
    pro2.join()# 主进程必须等待所有生产者生产完毕后才可以放结束生产的信号
    pro3.join()

    q.put(None)# 有几个消费者就应该给几个信号
    q.put(None)
多个消费者:有几个消费者就应该放几个结束生产标识

 

JoinableQueue([maxsize]) 

 创建可连接的共享队列进程。它就好像一个Queue对象,但是它自带光环,允许消费者通知生产者是不是已经消费完所有的数据了。通知进程是使用共享的信号和条件变量来实现的。 

老样子,先来接收一下JoinableQueue给咱们提供的方法:

JoinableQueue的实例p除了与Queue对象相同的方法之外,还具有以下方法:

q.task_done() 
消费者使用此方法发出信号,表示队列中放入的数据已经被处理。如果调用此方法的次数大于从队列中获取的数据数量,将引发ValueError异常。

q.join() 
生产者将使用此方法进行阻塞,直到队列中所有项目均被处理。阻塞将持续到消费者为队列中的每个数据均调用q.task_done()方法为止。 


方法介绍
JoinableQueue提供的方法

下面举个栗子,建立一个永远运行的进程,来无限制的消费生产者的数据,生产者只需要将数据放入队列并等待被处理即可

from multiprocessing import JoinableQueue,Process
import time
import random

def get_func(q,consumer):
    while 1:
        time.sleep(random.randint(1, 3))
        info = q.get()
        print('\033[32m%s 拿走了%s \033[0m'%(consumer,info))
        q.task_done()# 消费者每消费一个数据,就要返回一次标识给q.join,证明数据已经被消费


def put_func(q,product):
    for i in range(5):
        info = '%s %s号'%(product,i)
        q.put(info)
        print('\033[31m生产了%s \033[0m' % info)
        time.sleep(random.randint(1, 3))
    q.join()# 生产完毕,使用此方法进行阻塞,直到队列中所有数据均被处理。

if __name__ == '__main__':
    q = JoinableQueue(5)
    con1 = Process(target=get_func, args=(q,'Alex'))
    con2 = Process(target=get_func, args=(q,'WuSir'))

    pro1 = Process(target=put_func, args=(q,'苍老师版'))
    pro2 = Process(target=put_func, args=(q,'小泽玛雅丽版'))
    pro3 = Process(target=put_func, args=(q,'岛国米饭保你爱版'))

    l_p = [pro1,pro2,pro3,con1,con2]
    for i in l_p:
        i.start()

    pro1.join()
    pro2.join()
    pro3.join()
# 此代码的大体逻辑:主进程开启3个生产者和2个消费者,合计6个进程在并发执行。
# 主进程等待 pro1 pro2 pro3的执行完毕
# pro1 pro2 pro3 进程中都有q.join(),会等待消费者con1 con2消费完所以数据
# 即 :主进程在等pro1 pro2 pro3 ,而pro1 pro2 pro3 在等 con1 con2
# 此代码中消费者进程con1 con2 会一直阻塞在q.get等待接收数据,而造成程序不会结束
# 如果程序想要结束.......小伙子,试试把con1 con2设置成守护进程试试
JoinableQueue实现生产者消费者模型

 

管道(了解)                                        

#创建管道的类:
Pipe([duplex]):在进程之间创建一条管道,并返回元组(conn1,conn2),其中conn1,conn2表示管道两端的连接对象,强调一点:必须在产生Process对象之前产生管道
#参数介绍:
dumplex:默认管道是全双工的,即conn1和conn2都是既能收数据也能发数据的,如果将duplex设成False,conn1只能用于接收,conn2只能用于发送。
#主要方法:
    conn1.recv():接收conn2.send(obj)发送的对象。如果没有消息可接收,recv方法会一直阻塞。如果连接的另外一端已经关闭,那么recv方法会抛出EOFError。
    conn1.send(obj):通过连接发送对象。obj是与序列化兼容的任意对象
 #其他方法:
conn1.close():关闭连接。如果conn1被垃圾回收,将自动调用此方法
conn1.fileno():返回连接使用的整数文件描述符
conn1.poll([timeout]):如果连接上的数据可用,返回True。timeout指定等待的最长时限。如果省略此参数,方法将立即返回结果。如果将timeout设成None,操作将无限期地等待数据到达。
 
conn1.recv_bytes([maxlength]):接收c.send_bytes()方法发送的一条完整的字节消息。maxlength指定要接收的最大字节数。如果进入的消息,超过了这个最大值,将引发IOError异常,并且在连接上无法进行进一步读取。如果连接的另外一端已经关闭,再也不存在任何数据,将引发EOFError异常。
conn.send_bytes(buffer [, offset [, size]]):通过连接发送字节数据缓冲区,buffer是支持缓冲区接口的任意对象,offset是缓冲区中的字节偏移量,而size是要发送字节数。结果数据以单条消息的形式发出,然后调用c.recv_bytes()函数进行接收    
 
conn1.recv_bytes_into(buffer [, offset]):接收一条完整的字节消息,并把它保存在buffer对象中,该对象支持可写入的缓冲区接口(即bytearray对象或类似的对象)。offset指定缓冲区中放置消息处的字节位移。返回值是收到的字节数。如果消息长度大于可用的缓冲区空间,将引发BufferTooShort异常。

介绍
管道的介绍
from multiprocessing import Process, Pipe
import time

def son(conn2):
    time.sleep(1)
    print(conn2.recv())
    conn2.send('我是你爷爷')

if __name__ == '__main__':
    conn1, conn2 = Pipe()
    p = Process(target=son, args=(conn2,))
    p.start()
    conn1.send('我是你爸爸!')  # conn1既能发数据
    time.sleep(1)
    print(conn1.recv())  # conn1 也能接数据
    p.join()
管道的初使用

 应该特别注意管道端点的正确管理问题。如果是生产者或消费者中都没有使用管道的某个端点,就应将它关闭。这也说明了为何在生产者中关闭了管道的输出端,在消费者中关闭管道的输入端。如果忘记执行这些步骤,程序可能在消费者中的recv()操作上挂起。管道是由操作系统进行引用计数的,必须在所有进程中关闭管道后才能生成EOFError异常。因此,在生产者中关闭管道不会有任何效果,除非消费者也关闭了相同的管道端点。

from multiprocessing import Process, Pipe

def son(conn2,conn1):
    # conn1.close() # 不写就不会发生EOFError异常
    while 1:
        try:
            print(conn2.recv())
            conn2.send('我是你爷爷')
        except EOFError:
            # print(123)  # 验证确实发生了EOFError异常
            conn2.close()
            break

if __name__ == '__main__':
    conn1, conn2 = Pipe()
    p = Process(target=son, args=(conn2,conn1))
    p.start()
    conn2.close()
    conn1.send('我是你爸爸!')  # conn1既能发数据
    print(conn1.recv())  # conn1 也能接数据
    conn1.close()
自己整个异常玩玩
from multiprocessing import Pipe, Process
import time
import random


def consumer(conn, man):
    conn1, conn2 = conn
    conn1.close()
    while 1:
        try:
            info = conn2.recv()
            time.sleep(random.random())
            print('\033[31m%s 取走了%s\033[0m' % (man, info))
        except EOFError:
            print('\033[32m没有娃娃了,等下一期吧\033[0m')
            conn2.close()
            break  # 借助一定产生的EOFError异常来让程序结束


def producer(conn, pro):
    conn1, conn2 = conn
    conn2.close()
    for i in range(10):
        info = '%s 的娃娃%s号' % (pro, i)
        conn1.send(info)
    conn1.close()


if __name__ == '__main__':
    conn1, conn2 = Pipe()

    cons1 = Process(target=consumer, args=((conn1, conn2), 'alex'))
    prod1 = Process(target=producer, args=((conn1, conn2), '苍老师版'))
    cons1.start()
    prod1.start()
    conn1.close()  # 不写的话,消费者进程结束不了。 一定要记住,多进程中内核会对每个进程的管道进行计数,必须在所有进程中都关闭管道才会引发EOFError异常
    conn2.close()
pipe实现的生产者消费者模型
from multiprocessing import Pipe, Process, Lock

def consumer(conn, man,color,l):
    conn1, conn2 = conn
    conn1.close()
    while 1:
        l.acquire()
        info = conn2.recv()
        l.release()
        if info:
            print('\033[%s %s 取走了%s\033[0m' % (color,man, info))
        else:
            conn2.close()
            break

def producer(conn, pro):
    conn1, conn2 = conn
    conn2.close()
    for i in range(20):
        info = '%s 的娃娃%s号' % (pro, i)
        conn1.send(info)
    conn1.send(None)
    conn1.send(None)
    conn1.send(None)
    conn1.close()


if __name__ == '__main__':
    conn1, conn2 = Pipe()
    l = Lock()
    cons1 = Process(target=consumer, args=((conn1, conn2), 'alex','31m',l))
    cons2 = Process(target=consumer, args=((conn1, conn2), 'Wusir','33m',l))
    cons3 = Process(target=consumer, args=((conn1, conn2), '太白','34m',l))
    cons4 = Process(target=consumer, args=((conn1, conn2), '彦涛','35m',l))
    cons5 = Process(target=consumer, args=((conn1, conn2), 'AAA','36m',l))
    cons6 = Process(target=consumer, args=((conn1, conn2), 'BBB','37m',l))
    prod1 = Process(target=producer, args=((conn1, conn2), '苍老师版'))
    prod2 = Process(target=producer, args=((conn1, conn2), '韩红版'))

    l_p = [cons1,
           cons2,
           cons3,
           cons4,
           cons5,
           cons6,
           prod1,
           prod2,
           ]
    [i.start() for i in l_p]

    conn1.close()
    conn2.close()

    [i.join() for i in l_p]
多个消费者竞争数据带来了数据不安全的问题

 

 

进程直接的数据共享            

展望未来,基于消息传递的并发编程是大势所趋

即便是使用线程,推荐做法也是将程序设计为大量独立的线程集合,通过消息队列交换数据。

这样极大地减少了对使用锁定和其他同步手段的需求,还可以扩展到分布式系统中。

但进程间应该尽量避免通信,即便需要通信,也应该选择进程安全的工具来避免加锁带来的问题。

以后我们会尝试使用数据库来解决现在进程之间的数据共享问题。

进程间数据是独立的,可以借助于队列或管道实现通信,二者都是基于消息传递的
虽然进程间数据独立,但可以通过Manager实现数据共享,事实上Manager的功能远不止于此

A manager object returned by Manager() controls a server process which holds Python objects and allows other processes to manipulate them using proxies.

A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array.
Manager模块官方说法
from multiprocessing import Manager,Process,Lock

def func(dic,lock):
    # lock.acquire() # 使用manager模块,多进程共享数据时,如果不加锁,必然会造成数据混乱
    dic[0] -= 1
    # lock.release()

if __name__ == '__main__':
    m = Manager()
    lock = Lock()
    s = m.list([50])
    print(s)
    l = []
    for i in range(50):
        p = Process(target=func,args=(s,lock))
        p.start()
        l.append(p)
    [p.join() for p in l]
    print(s[0])
Manager模块的简单用法

 

 

 

进程池和multiprocessing.Pool 模块      

进程池        

为什么要有进程池?进程池的概念。

在程序实际处理问题过程中,忙时会有成千上万的任务需要被执行,闲时可能只有零星任务。那么在成千上万个任务需要被执行的时候,我们就需要去创建成千上万个进程么?首先,创建进程需要消耗时间,销毁进程也需要消耗时间。第二即便开启了成千上万的进程,操作系统也不能让他们同时执行,这样反而会影响程序的效率。因此我们不能无限制的根据任务开启或者结束进程。那么我们要怎么做呢?

在这里,要给大家介绍一个进程池的概念,定义一个池子,在里面放上固定数量的进程,有需求来了,就拿这个池中的进程来处理任务,等到处理完毕,进程并不结束,而是将进程再放回进程池中继续等待任务。如果有很多任务需要执行,池中的进程数量不够,任务就要等待之前的进程执行任务完毕归来,拿到空闲进程才能继续执行。也就是说,池中进程的数量是固定的,那么同一时间最多有固定数量的进程在运行。这样不会增加操作系统的调度难度,还节省了开闭进程的时间,也一定程度上能够实现并发效果。

举个栗子:在小黑屋子里(池)有4个小姐姐(进程)一直在等待服务客人,当有1个客人来,就派一个小姐姐去服务,当有很多人来,就得等哪个小姐姐服务完上个人之后再继续去服务下一个人。

multiprocessing.Pool 模块

p = Pool([numprocess  [,initializer [, initargs]]]):创建进程池

1 numprocess:要创建的进程数,如果省略,将默认使用cpu_count()的值
2 initializer:是每个工作进程启动时要执行的可调用对象,默认为None
3 initargs:是要传给initializer的参数组
p.apply(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。
'''需要强调的是:此操作并不会在所有池工作进程中并执行func函数。如果要通过不同参数并发地执行func函数,必须从不同线程调用p.apply()函数或者使用p.apply_async()'''

p.apply_async(func [, args [, kwargs]],callback=None):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。
'''此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将结果传递给callback。callback禁止执行任何阻塞操作,否则将接收其他异步操作中的结果。'''

p.map( func, iterable):将iterable序列中每一个元素当成参数传递给func,异步执行func函数。

p.close():关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成

P.jion():等待所有工作进程退出。此方法只能在close()或teminate()之后调用

主要方法
Pool主要方法
方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具有以下方法:

1、obj.get():返回结果,如果有必要则等待结果到达。timeout是可选的。如果在指定时间内还没有到达,将引发一场。如果远程操作中引发了异常,它将在调用此方法时再次被引发。
2、obj.ready():如果调用完成,返回True
3、obj.successful():如果调用完成且没有引发异常,返回True,如果在结果就绪之前调用此方法,引发异常
4、obj.wait([timeout]):等待结果变为可用。
5、obj.terminate():立即终止所有工作进程,同时不执行任何清理或结束任何挂起工作。如果p被垃圾回收,将自动调用此函数
其他方法(了解即可)

 

代码实例        
进程池和多进程效率对比
from multiprocessing import Pool,Process
import time
def func(i):
    i += 1
    print(i)

if __name__ == '__main__':
    p = Pool(4)# 创建进程池,池中有4个进程待命
    start = time.time()
    t = [i for i in range(100)]
    p.map(func,t)#
    p.close()
    p.join()# 等待进程池中所有进程都执行完所有任务。
    print(time.time() - start)# 打印进程池做任务的时间
    start = time.time()
    l = []
    for i in range(100):
        p = Process(target=func,args=(i,))
        p.start()
        l.append(p)
    [i.join() for i in l]# 等待所有进程工作结束
    print(time.time() - start)# 打印开启100个进程做任务的时间
    print('--'*20+'>')
map进程池和多进程做任务的效率对比

 

 进程池的同步调用和异步调用

from multiprocessing import Pool,Process
import time,os

def func(i):
    i+= 1
    time.sleep(2)
    print(i,os.getpid())
    return i
if __name__ == '__main__':
    p = Pool(5)# 创建进程池,池中有5个进程待命
    res_l = []
    for i in range(10):
        res = p.apply(func,args=(i,))# 有10个任务来,交给进程池中5个进程,5个进程同步执行任务直到拿到res
        res_l.append(res)
    print(res_l)
进程池的同步调用
from multiprocessing import Pool,Process
import time,os

def func(i):
    i+= 1
    time.sleep(2)
    print(i,os.getpid())
    return i
if __name__ == '__main__':
    p = Pool(5)# 创建进程池,池中有5个进程待命
    res_l = []
    for i in range(10):
        res = p.apply_async(func,args=(i,))# 异步执行10个任务,每次最多5个进程同时运行
        res_l.append(res)# 拿到结果后是一个AsyncResul的实例obj,先将结果放入列表
    p.close()
    p.join()# 异步执行需要join,也就是让主进程等待进程池中所有进程执行完所有任务,否则可能进程池中的进程还没来得及执行任务,主进程就结束了。
    for i in res_l:
        print(i.get())# 异步机制,从AsyncResul的实例obj中get到实际结果,同步机制没有此方法
                      # 因为同步机制能直接拿到实际结果
                      # 其实get是阻塞等待的,也就是说,如果没有上边的close和join :
                      # 主进程一样会阻塞在get等待进程池中给返回结果,进程池异步执行任务获取结果
                      # 每次有一个进程返回结果后,就能get到一个结果,然后for循环到下一次继续阻塞等待拿结果
进程池的异步调用

 

 练习:进程池实现socket并发聊天

 

from multiprocessing import Pool
import socket

SOURCE_ADDR = ('127.0.0.1', 8090)


def communication(conn):
    while 1:
        try:
            msg_r = conn.recv(1024).decode('utf-8')
            if not msg_r: break
            print(msg_r)
            conn.send(msg_r.upper().encode('utf-8'))
        except Exception:  # 可能接收比如客户端直接强制断开连接等错误。
            print('结束')
            break


if __name__ == '__main__':
    p = Pool(4)
    sk = socket.socket()
    sk.bind(SOURCE_ADDR)
    sk.listen()
    while 1:
        conn, addr = sk.accept()
        p.apply_async(communication, args=(conn,))
server端
import socket

sk = socket.socket()
SOURCE_ADDR = ('127.0.0.1',8090)
sk.connect(SOURCE_ADDR)

while 1:
    msg_s = input('>>>')
    if not msg_s:continue
    sk.send(msg_s.encode('utf-8'))
    print(sk.recv(1024).decode('utf-8'))
client端

 上述代码体现出:并发开启多个客户端,服务端同一时间只能接收4个客户端的请求,当再有客户端请求时,需要等待,只能结束一个客户端,另外一个客户端才会进来.

 

需要回调函数的场景:进程池中任何一个任务一旦处理完了,就立即告知主进程:我好了,你可以处理我的结果了。主进程则调用一个函数去处理该结果,该函数即回调函数

我们可以把耗时间(阻塞)的任务放到进程池中,然后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果

需要注意的是:在进程池中,回调函数是由主函数调用的!

 

import requests
from multiprocessing import Pool,Process
import time
import os
def get_url(url):
    while 1:
        r = requests.get(url)
        if r.status_code == 200:
            return url,r.text

def write_res(result):
    info = '%s : %s'%(result[0],result[1])
    with open('info.txt','a',encoding='utf-8') as f:
        f.write(info)
    # print('回调函数pid:%s'%(os.getpid()))

if __name__ == '__main__':
    p = Pool(4)
    # print('主函数pid:%s'%(os.getpid()))
    urls = ['https://www.baidu.com',
           'http://www.python.org',
           'http://www.jd.com',
           'http://www.taobao.com',
           'http://www.mi.com',
           'http://www.cnblogs.com']
    res_l = []
    for url in urls:
        res = p.apply_async(get_url,args=(url,),callback=write_res)
        res_l.append(res)
    p.close()
    p.join()
    for i in res_l:
        print(i.get()[0])
使用进程池请求多个url以减少网络延迟等待

 

import requests
import bs4
from multiprocessing import Pool

header = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0'
}# 请求头


def get_img_url(url):
    '''获取目标网页中,每个目的图片的准确地址'''
    img_url = []
    res = requests.get(url, headers=header)
    if res.status_code == 200:
        soup = bs4.BeautifulSoup(res.text, 'html.parser')
        img_addr = soup.find('div', class_='beauty_details_imgs_box').find_all('li')
        for i in img_addr:
            img = i.find('img').get('src')
            img_url.append(img)
    return img_url


def get_img(img_url):
    '''进程池异步请求 每个目的图片的准确地址'''
    res = requests.get(img_url)
    if res.status_code == 200:
        return res, img_url


def save_img(img_url):
    '''回调函数,每有一个进程获取到图片地址后,将图片写入本地'''
    res, img = img_url[0], img_url[1]
    with open(img.split('/')[-1].split('_')[0], 'wb') as f:
        f.write(res.content)


if __name__ == '__main__':
    url = 'http://www.xiao4j.com/beauty/photos/30687.html'
    p = Pool(4)
    img_addr = get_img_url(url)

    for img in img_addr:
        p.apply_async(get_img, args=(img,), callback=save_img)
    p.close()
    p.join()
爬妹子

 

 

 在进程池中,如果对于每个进程返回的结果并不需要及时处理,需要等待所有结果完成后再统一处理的话,就无需回调函数了。

def func(num):
    sum = 0
    for i in range(num):
        sum += i
    return sum

if __name__ == '__main__':
    p = Pool(4)
    res = []
    for i in range(20):
        r = p.apply_async(func,args=(i,))
        res.append(r)

    p.close()
    p.join()
    [print(i.get()) for i in res]
不需要用回调函数

 

 

进程池的其他实现方式:https://docs.python.org/dev/library/concurrent.futures.html

 

参考资料:

http://www.cnblogs.com/linhaifeng/articles/6817679.html

http://www.cnblogs.com/Eva-J/articles/8253549.html

https://www.jianshu.com/p/1200fd49b583

 

 

 

 

 

 

 

转载于:https://www.cnblogs.com/LY-C/p/9145729.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值