Python中的Queue与多进程(multiprocessing)

一、Queue(队列对象)

在多进程中环境中,要使用进程安全的multiprocessing.Queue() ,而非Python标准库中的Queue

当一个队列为空的时候如果再用get取则会堵塞,所以取队列的时候一般是用到

get_nowait()方法,这种方法在向一个空队列取值的时候会抛一个Empty异常

所以更常用的方法是先判断一个队列是否为空,如果不为空则取值

队列中常用的方法

Queue.qsize() 返回队列的大小  
Queue.empty() 如果队列为空,返回True,反之False  
Queue.full() 如果队列满了,返回True,反之False 
Queue.get([block[, timeout]]) 获取队列,timeout等待时间  
Queue.get_nowait() 相当Queue.get(False) 
非阻塞 Queue.put(item) 写入队列,timeout等待时间  
Queue.put_nowait(item) 相当Queue.put(item, False)

二、multiprocessing中使用子进程概念

from multiprocessing import Process

可以通过Process来构造一个子进程

p1 = Process(target=fun,args=(args))
p2 = Process(target=fun, kwargs={'name': name, 'symbol': symbol})

同时,在这里说明一下,multiprocessing.Process() 也要在main所在py文件下运行

通过p.start()来启动子进程

再通过p.join()方法来使得子进程运行结束后再执行父进程

from multiprocessing import Process
import os
 
# 子进程要执行的代码
def run_proc(name):
    print 'Run child process %s (%s)...' % (name, os.getpid())
 
if __name__=='__main__':
    print 'Parent process %s.' % os.getpid()
    p = Process(target=run_proc, args=('test',))
    print 'Process will start.'
    p.start()
    p.join()
    print 'Process end.'

 三、在multiprocessing中使用pool

如果需要多个子进程时可以考虑使用进程池(pool)来管理

from multiprocessing import Pool
from multiprocessing import Pool
import os, time
 
def long_time_task(name):
    print 'Run task %s (%s)...' % (name, os.getpid())
    start = time.time()
    time.sleep(3)
    end = time.time()
    print 'Task %s runs %0.2f seconds.' % (name, (end - start))
 
if __name__=='__main__':
    print 'Parent process %s.' % os.getpid()
    p = Pool()
    for i in range(5):
        p.apply_async(long_time_task, args=(i,))
    print 'Waiting for all subprocesses done...'
    p.close()
    p.join()
    print 'All subprocesses done.'

pool创建子进程的方法与Process不同,是通过

p.apply_async(func, args=(args))实现,一个池子里能同时运行的任务是取决你电脑的cpu数量,如我的电脑现在是有4个cpu,那会子进程task0,task1,task2,task3可以同时启动,task4则在之前的一个某个进程结束后才开始

上面的程序运行后的结果其实是按照上图中1,2,3分开进行的,先打印1,3秒后打印2,再3秒后打印3

代码中的p.close()是关掉进程池子,是不再向里面添加进程了,对Pool对象调用join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close(),调用close()之后就不能继续添加新的Process了。

当时也可以是实例pool的时候给它定义一个进程的多少

如果上面的代码中p=Pool(5)那么所有的子进程就可以同时进行

四、多个子进程间的通信

多个子进程间的通信就要采用第一步中说到的Queue,比如有以下的需求,一个子进程向队列中写数据,另外一个进程从队列中取数据

from multiprocessing import Process, Queue
import os, time, random
 
# 写数据进程执行的代码:
def write(q):
    for value in ['A', 'B', 'C']:
        print 'Put %s to queue...' % value
        q.put(value)
        time.sleep(random.random())
 
# 读数据进程执行的代码:
def read(q):
    while True:
        if not q.empty():
            value = q.get(True)
            print 'Get %s from queue.' % value
            time.sleep(random.random())
        else:
            break
 
if __name__=='__main__':
    # 父进程创建Queue,并传给各个子进程:
    q = Queue()
    pw = Process(target=write, args=(q,))
    pr = Process(target=read, args=(q,))
    # 启动子进程pw,写入:
    pw.start()    
    # 等待pw结束:
    pw.join()
    # 启动子进程pr,读取:
    pr.start()
    pr.join()
    # pr进程里是死循环,无法等待其结束,只能强行终止:
    print
    print '所有数据都写入并且读完'

五、关于上面代码的几个有趣的问题

if __name__=='__main__':    
    # 父进程创建Queue,并传给各个子进程:
    q = Queue()
    p = Pool()
    pw = p.apply_async(write,args=(q,))    
    pr = p.apply_async(read,args=(q,))
    p.close()
    p.join()
    
    print
    print '所有数据都写入并且读完'

如果main函数写成上面的样本,本来我想要的是将会得到一个队列,将其作为参数传入进程池子里的每个子进程,但是却得到

RuntimeError: Queue objects should only be shared between processes through inheritance

的错误,查了下,大意是队列对象不能在父进程与子进程间通信,这个如果想要使用进程池中使用队列则要使用multiprocess的Manager类

if __name__=='__main__':
    manager = multiprocessing.Manager()
    # 父进程创建Queue,并传给各个子进程:
    q = manager.Queue()
    p = Pool()
    pw = p.apply_async(write,args=(q,))
    time.sleep(0.5)
    pr = p.apply_async(read,args=(q,))
    p.close()
    p.join()
    
    print
    print '所有数据都写入并且读完'

这样这个队列对象就可以在父进程与子进程间通信,不用池则不需要Manager

六、关于锁的应用

在不同程序间如果有同时对同一个队列操作的时候,为了避免错误,可以在某个函数操作队列的时候给它加把锁,这样在同一个时间内则只能有一个子进程对队列进行操作,锁也要在manager对象

中的锁

from multiprocessing import Process,Queue,Pool
import multiprocessing
import os, time, random
 
# 写数据进程执行的代码:
def write(q,lock):
    lock.acquire() #加上锁
    for value in ['A', 'B', 'C']:
        print 'Put %s to queue...' % value        
        q.put(value)        
    lock.release() #释放锁  
 
# 读数据进程执行的代码:
def read(q):
    while True:
        if not q.empty():
            value = q.get(False)
            print 'Get %s from queue.' % value
            time.sleep(random.random())
        else:
            break
 
if __name__=='__main__':
    manager = multiprocessing.Manager()
    # 父进程创建Queue,并传给各个子进程:
    q = manager.Queue()
    lock = manager.Lock() #初始化一把锁
    p = Pool()
    pw = p.apply_async(write,args=(q,lock))    
    pr = p.apply_async(read,args=(q,))
    p.close()
    p.join()
    
    print
    print '所有数据都写入并且读完'

七、关于如何结束子进程

简单粗暴的做法是使用:multiprocessing.Process.terminate()

在主进程里直接terminate子线程,是不推荐的做法,因为结束的时候不清楚子线程的运行状况,有很大可能性导致子线程在不恰当的时刻被结束。
在主进程里优雅的结束子进程,推荐的方法是,通过全局变量、互斥锁或信号量等进程间通信手段来达到。
方式1:使用multiprocessing.Value对象,来传递信息。通知子线程:“辛苦了,你可以休息了”,然后让子线程自身决定退出的时刻,可以选择一个适当的时刻来结束任务。
下面的代码,在外部修改alive.value的值,子进程得知后,选择在没有sleep的时候退出。

from multiprocessing import Process, Value
import time

alive = Value('b', False)

def worker(alive):
  while alive.value:
    time.sleep(0.1)
    print("running")

if __name__ == '__main__':
  p = Process(target=worker, args=(alive,))
  alive.value = True
  p.start()
  time.sleep(1)
  alive.value = False

方式2:更优雅的方式是使用信号Signal,具体使用参考:

python进程间通信--信号Signal - 持之以恒18 - 博客园

八、multiprocessing.freeze_support()

Python多进程multiprocessing在windows的控制台或者IDE下运行不了会报错
打包成exe包双击之后会一直打开exe,导致内存占满,在linux下没有问题。
经过各种查阅资料,终于解决了这个bug:
只要在main入口下添加 multiprocessing.freeze_support()就可以了

if __name__ == "__main__":
    multiprocessing.freeze_support()

参考文章:

python Queue模块_Yatere的天平秤-CSDN博客

多进程 - 廖雪峰的官方网站

  • 15
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
Python 3.6多进程queue是一个在多个进程之间共享数据的队列。它基于进程间通信(IPC)机制来实现数据的安全传递和同步。 使用多进程queue的关键是先创建一个Queue对象,然后将其传递给不同的进程,使得多个进程可以读取和写入相同的队列。以下是使用python多进程queue的基本步骤: 1. 首先导入必要的库: ```python from multiprocessing import Process, Queue ``` 2. 创建Queue对象: ```python queue = Queue() ``` 3. 定义需要在多进程执行的函数,该函数可以将数据写入队列: ```python def write_to_queue(queue, data): queue.put(data) ``` 4. 创建进程并启动: ```python p = Process(target=write_to_queue, args=(queue, "Hello world!")) p.start() ``` 5. 在主进程从队列读取数据: ```python data = queue.get() print(data) # 输出: Hello world! ``` 以上示例,我们创建了一个进程p,该进程执行write_to_queue函数并将数据"Hello world!"写入队列。然后从主进程使用queue.get()方法获取队列的数据,并将其打印出来。 需要注意的是,多进程queue的数据是由操作系统来管理和同步的,因此确保数据传递的顺序和可靠性。此外,为了终止子进程,我们还可以使用p.join()方法。 总结:Python 3.6多进程queue提供了一种在多个进程之间共享数据的有效和方便的方式,通过使用Queue对象,我们可以实现数据的安全传递和同步。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值