Python中进程的创建

对于操作系统来说,一个任务就是一个进程(Process),比如打开一个浏览器就是启动一个浏览器进程,打开一个记事本就启动了一个记事本进程,打开两个记事本就启动了两个记事本进程,打开一个 Word 就启动了一个 Word 进程。

一 Linux创建子进程

1.原理:

父进程和子进程, 如果父进程结束,子进程也随之结束;
先有父进程,再有子进程,通过fork函数实现;

2. fork函数的返回值:调用该方法一次, 返回两次;

产生的子进程返回一个0
父进程返回子进程的pid;

3. Window也能使用fork函数么?

Windows没有fork函数, Mac有fork函数(Unix -> Linux, Unix-> Mac),封装了一个模块multiprocessing

4. 常用方法:
os.fork()
os.getpid(): 获取当前进程的pid;
os.getppid(): parent process id, 获取当前进程的父进程的id号;
import multiprocessing
import os
import time
print('当前进程(pid=%d)正在运行...' %(os.getpid()))
print('当前进程的父进程(pid=%d)正在运行...' %(os.getppid()))
print('正在创建子进程...')
pid=os.fork()
pid2=os.fork()
print('第1个:',pid)
print('第2个:',pid2)
if pid==0:
   print('这是创建的子进程,子进程的id为%s,父进程的id为%s' %(os.getpid(),os.getppid()))
else:
   print('当前是父进程[%s]的返回值%s' %(os.getpid(),pid))
time.sleep(3)

在这里插入图片描述

二 创建多进程

1.通过实例化对象创建

import multiprocessing
import threading
def job():
    print('当前子进程的名称为%s' %(multiprocessing.current_process()))
#创建一个进程对象
p1=multiprocessing.Process(target=job)
#运行进程,执行任务
p1.start()

#创建一个进程对象
p2=multiprocessing.Process(target=job)
#运行进程,执行任务
p2.start()

#等待所有的子进程执行结束,再执行主进程的内容
p1.join()
p2.join()
print('任务执行结束...')

在这里插入图片描述
2.通过继承的方式创建

import multiprocessing
class JobProcess(multiprocessing.Process):
    #重写Process的构造方法,获取新的属性
    def __init__(self,queue):
        super(JobProcess, self).__init__()
        self.queue=queue
    #重写run方法,将执行的任务放在里面即可
    def run(self):
        print('当前子进程名称为%s' %(multiprocessing.current_process()))

processes=[]
#启动10个子进程,来处理需要执行的任务
for i in range(10):
    #实例化对象
    p=JobProcess(queue=3)
    processes.append(p)
    #启动多进程,处理需要执行的任务
    p.start()

#等待所有的子进程执行结束,再继续执行主进程
[process.join() for process in processes]
#执行主进程
print('任务执行结束...')

在这里插入图片描述

三 守护进程

守护线程:
setDeamon:

True: 主线程执行结束, 子线程不再继续执行;
Flase:主线程执行结束, 子线程继续执行;
守护进程:
setDeamon:

True: 主进程执行结束, 子进程不再继续执行;
Flase:主进程执行结束, 子进程继续执行;

import multiprocessing
import time
def job():
    name=multiprocessing.current_process()
    print('开始运行')
    time.sleep(2)
    print('结束进程')
if __name__=='__main__':
    #启动一个子进程
    p1=multiprocessing.Process(target=job,name='use deamon')
    #True/False守护线程:
    p1.daemon=False
    p1.start()
    #join等待所有的子进程执行结束,再执行主进程
    p1.join(1)
    #主进程执行
    print('程序执行结束')

在这里插入图片描述
守护进程和守护线程是一样的,都是为了保证在主进程(主线程)完成时,强行结束未完成的子进程(子线程)

四 终止进程

import time
import  multiprocessing

def job():
    print("start.....")
    time.sleep(1)
    print('end.......')
if __name__ == '__main__':
    p = multiprocessing.Process(target=job)
    print("Before:", p.is_alive())
    p.start()       #启动子进程
    print("During:", p.is_alive())
    p.terminate()   #终止子进程
    print('terminate:', p.is_alive())
    p.join()        #等待子进程彻底终止
    print("joined:", p.is_alive())

在这里插入图片描述
终止进程 terminate通常和 join一起使用的,当 terminate终止进程时,是会有一个销毁的过程,进程并没有完全结束,这里就需要 join来等待所有的子进程结束后,再去执行主进程

五 进程间的通信(生产者消费者模型)

通过队列来实现进程间的通信

import  multiprocessing
from multiprocessing import Queue
import time

class Producer(multiprocessing.Process):
   # 往队列里面写内容
   def __init__(self, queue):
       super(Producer, self).__init__()
       self.queue = queue

   def run(self):
       for i in range(10):
           self.queue.put(i)
           time.sleep(0.1)
           print("传递消息,内容为:%s" %(i))

class Consumer(multiprocessing.Process):
   # 读取队列里面的内容
   def __init__(self, queue):
       super(Consumer, self).__init__()
       self.queue = queue

   def run(self):
       # 判断队列是否为空,如果是,跳出循环,不会再去从队列获取数据;
       # while not self.queue.empty():
       while True:
           time.sleep(0.1)
           print("读取进程传递的消息:%s" %(self.queue.get()))

if __name__ == "__main__":
   q = Queue()
   p1 = Producer(q)
   c1 = Consumer(q)

   p1.start()
   c1.start()

   p1.join()
   c1.terminate()
   c1.join()
   print('All done')

在这里插入图片描述

六 分布式进程

1.为什么要分布式进程?

任务需要处理的数据特别大, 希望多台主机共同处理任务;

2. 如何实现分布式进程?

multiprocessing.managers子模块里面可以实现将进程分布到多台机器上;
Master: 管理端, 分配任务给其他主机;
Worker1: 被管理端, 处理master给予的任务;
Worker2:被管理端, 处理master给予的任务;

3. 特别重要的类:

BaseManager: 提供了不同机器进程之间共享数据的一种方法;

from  multiprocessing.managers import  BaseManager

七 进程池

如果启动大量子进程, 会消耗时间用来创建和销毁子进程,使用进程池, 不需要启动大量的进程;

1.multiprocessing.pool方法

import  multiprocessing
import time
def job(id):
    print('start %d.....' %(id))
    print('end %d.....' %(id))
# 创建一个进程池对象
pool = multiprocessing.Pool(10)
# 给进程池的进程分配任务
for i in range(10):
    pool.apply_async(job,args=(i, ) )
pool.close()
# 等待所有的子进程执行结束
pool.join()
print('success')

在这里插入图片描述

2.ProcessPoolExecutor方法

from concurrent.futures import  ProcessPoolExecutor
def job(id):
    print('start %d.....' %(id))
    print('end %d.....' %(id))
    return  id
#第1种方式: submit
pool = ProcessPoolExecutor(max_workers=4) # 分配任务给子进程, 并且返回一个Future对象;
f1 = pool.submit(job, 10)
#获取进程是否执行结束;
f1.done()
#获取子进程执行的结果
f1.result()

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值