python-多进程

一、多进程

1.使用multiprocessing模块

  • multiprocessing模块就是跨平台版本的多进程模块,提供了一个Process类来代表一个进程对象,这个对象可以理解为是一个独立的进程,可以执行另外的事情

from multiprocessing import Process

Process语法结构如下:

  • Process(group=None, target=None, name=None, args=(), kwargs={})

    • target:如果传递了函数的引用,任务子进程就执行这里的代码
    • args:给target指定的函数传递的参数,以元组的方式传递
    • kwargs:给target指定的函数传递命名参数
    • name:给进程设定一个名字,可以不设定
    • group:指定进程组,大多数情况下用不到
  • Process创建的实例对象的常用方法:

    • start():启动子进程实例(创建子进程)
    • is_alive():判断进程子进程是否还在活着
    • join([timeout]):是否等待子进程执行结束,或等待多少秒
    • terminate():不管任务是否完成,立即终止子进程
  • Process创建的实例对象的常用属性:

    • name:当前进程的别名,默认为Process-N,N为从1开始递增的整数
    • pid:当前进程的pid(进程号)
from multiprocessing import Process
import os
from time import sleep


def run_proc(name, age, **kwargs):
    for i in range(10):
        print('子进程运行中,name= %s,age=%d ,pid=%d...' % (name, age, os.getpid()))
        print(kwargs)
        sleep(0.2)

if __name__=='__main__':
    p = Process(target=run_proc, args=('test',18), kwargs={"m":20})
    p.start()
    sleep(1)  # 1秒中之后,立即结束子进程
    p.terminate()
    p.join()

运行结果
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}

2.进程间的通信

2.1QUEUE的使用

from multiprocessing import Queue

2.1.1Queue(maxsize=0)
  • maxsize等于0或者负数表示可接受的消息数量没有上限
2.1.2方法
  • Queue.qsize():返回当前队列包含的消息数量;

  • Queue.empty():如果队列为空,返回True,反之False ;

  • Queue.full():如果队列满了,返回True,反之False;

  • Queue.get(block=True, tiomeout=None):获取队列中的一条消息,然后将其从列队中移除,block默认值为True;

    • 1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果为空,此时程序将被阻塞(停在读取状态),直到从消息列队读到消息为止,如果设置了timeout,则会等待timeout秒,若还没读取到任何消息,则抛出"Queue.Empty"异常;

    • 2)如果block值为False,消息列队如果为空,则会立刻抛出"Queue.Empty"异常;

  • Queue.get_nowait():相当Queue.get(block=False);

  • Queue.put(obj,block=True,timeout=None):将obj消息写入队列,block默认值为True;

    • 1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果已经没有空间可写入,此时程序将被阻塞(停在写入状态),直到从消息列队腾出空间为止,如果设置了timeout,则会等待timeout秒,若还没空间,则抛出"Queue.Full"异常;

    • 2)如果block值为False,消息列队如果没有空间可写入,则会立刻抛出"Queue.Full"异常;

  • Queue.put_nowait(obj):相当Queue.put(obj, block=False);

我们以Queue为例,在父进程中创建两个子进程,一个往Queue里写数据,一个从Queue里读数据:

from multiprocessing import Process, Queue
import os, time, random

# 写数据进程执行的代码:
def write(q):
    for value in ['A', 'B', 'C']:
        print('Put %s to queue...' % value)
        q.put(value)
        time.sleep(random.random())

# 读数据进程执行的代码:
def read(q):
    while True:
        if not q.empty():
            value = q.get(True)
            print('Get %s from queue.' % value)
            time.sleep(random.random())
        else:
            break

if __name__=='__main__':
    # 父进程创建Queue,并传给各个子进程:
    q = Queue()
    pw = Process(target=write, args=(q,))
    pr = Process(target=read, args=(q,))
    # 启动子进程pw,写入:
    pw.start()    
    # 等待pw结束:
    pw.join()
    # 启动子进程pr,读取:
    pr.start()
    pr.join()
    # pr进程里是死循环,无法等待其结束,只能强行终止:
    print('')
    print('所有数据都写入并且读完')

3.进程池

  • 当需要创建的子进程数量不多时,可以直接利用multiprocessing中的Process动态成生多个进程,但如果是上百甚至上千个目标,手动的去创建进程的工作量巨大,此时就可以用到multiprocessing模块提供的Pool方法。
  • 初始化Pool时,可以指定一个最大进程数,当有新的请求提交到Pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到指定的最大值,那么该请求就会等待,直到池中有进程结束,才会用之前的进程来执行新的任务,

from multiprocessing import Pool

3.1创建进程池

po = Pool(processes=None)

3.2Pool常用方法:
  • apply_async(func, args=(), kwds={}) :使用非阻塞方式调用func(并行执行,堵塞方式必须等待上一个进程退出才能执行下一个进程),args为传递给func的参数列表,kwds为传递给func的关键字参数列表;
  • close():关闭Pool,使其不再接受新的任务;
  • terminate():不管任务是否完成,立即终止;
  • join():主进程阻塞,等待子进程的退出, 必须在close或terminate之后使用;
from multiprocessing import Pool
import os, time, random

def worker(msg):
    t_start = time.time()
    print("%s开始执行,进程号为%d" % (msg,os.getpid()))
    # random.random()随机生成0~1之间的浮点数
    time.sleep(random.random()*2) 
    t_stop = time.time()
    print(msg,"执行完毕,耗时%0.2f" % (t_stop-t_start))


if __name__=='__main__':
	po = Pool(3)  # 定义一个进程池,最大进程数3
	for i in range(0,10):
	    # Pool().apply_async(要调用的目标,(传递给目标的参数元祖,))
	    # 每次循环将会用空闲出来的子进程去调用目标
	    po.apply_async(worker,(i,))
	
	print("----start----")
	po.close()  # 关闭进程池,关闭后po不再接收新的请求
	po.join()  # 等待po中所有子进程执行完成,必须放在close语句之后
	print("-----end-----")

运行结果:
----start----
0开始执行,进程号为21466
1开始执行,进程号为21468
2开始执行,进程号为21467
0 执行完毕,耗时1.01
3开始执行,进程号为21466
2 执行完毕,耗时1.24
4开始执行,进程号为21467
3 执行完毕,耗时0.56
5开始执行,进程号为21466
1 执行完毕,耗时1.68
6开始执行,进程号为21468
4 执行完毕,耗时0.67
7开始执行,进程号为21467
5 执行完毕,耗时0.83
8开始执行,进程号为21466
6 执行完毕,耗时0.75
9开始执行,进程号为21468
7 执行完毕,耗时1.03
8 执行完毕,耗时1.05
9 执行完毕,耗时1.69
-----end-----

4.进程池中的通信

  • 如果要使用Pool创建进程,就需要使用multiprocessing.Manager()中的Queue(),而不是multiprocessing.Queue(),否则会得到一条如下的错误信息:

RuntimeError: Queue objects should only be shared between processes through inheritance.

from multiprocessing import Manager,Pool
import os,time,random

def reader(q):
    print("reader启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
    for i in range(q.qsize()):
        print("reader从Queue获取到消息:%s" % q.get(True))

def writer(q):
    print("writer启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
    for i in "itcast":
        q.put(i)

if __name__=="__main__":
    print("(%s) start" % os.getpid())
    q = Manager().Queue()  # 使用Manager中的Queue
    po = Pool()
    po.apply_async(writer, (q,))

    time.sleep(1)  # 先让上面的任务向Queue存入数据,然后再让下面的任务开始从中取数据

    po.apply_async(reader, (q,))
    po.close()
    po.join()
    print("(%s) End" % os.getpid())

运行结果:
(11095) start
writer启动(11097),父进程为(11095)
reader启动(11098),父进程为(11095)
reader从Queue获取到消息:i
reader从Queue获取到消息:t
reader从Queue获取到消息:c
reader从Queue获取到消息:a
reader从Queue获取到消息:s
reader从Queue获取到消息:t
(11095) End

5.多进程与pymysql一起使用需要注意的问题

pymysql的cursor在子进程是无法被解析的,如果要在子进程中操作pymysql,需要在子进程重新定义连接,具体示例如下:

import pymysql
import logging
from multiprocessing import Pool as MultiPool

# 创建一个记录器对象
logger = logging.getLogger()
# 设置日志级别
logger.setLevel(logging.INFO)

logfile = './azure.logs'

# 指定文件处理器,发送日志输出到磁盘文件
fh = logging.FileHandler(logfile, encoding='utf-8')
fh.setLevel(logging.INFO)

# 指定流处理器,发送日志输出
sh = logging.StreamHandler()
sh.setLevel(logging.INFO)

# 添加处理程序对象
logger.addHandler(fh)
logger.addHandler(sh)

mysql_conf = {
    "host": '127.0.0.1',
    "port": 3306,
    "user": 'root',
    "password": '1234',
    "db": 'sqlalchemy_test',
    "charset": "utf8",
    "cursorclass": pymysql.cursors.DictCursor
}

task_list = []
conn = pymysql.connect(**mysql_conf)
used_data = {1: "chst1",
             2: "chst2",
             3: "chst3",
             4: "chst4",
             5: "chst5",
             6: "chst6",
             7: "chst7",
             8: "chst8",
             9: "chst9",
             10: "chst10"}


def main():
    for i in range(10):
        multi_pool.apply_async(into, args=(i, ))


def into(i):
    connect = pymysql.connect(**mysql_conf)
    with connect.cursor() as cursor:
        run(cursor, i, connect)


def run(cursor, i, connect):
    print(used_data[i + 1])
    sql = '''select * from users where id=1'''
    affect_row1 = cursor.execute(sql)
    print(f"affect_row1:{affect_row1}")
    a = cursor.fetchone()
    print(a)
    sql = '''UPDATE `users` SET `name` = '111122', `fullname` = '1111' WHERE id=1;'''
    affect_row2 = cursor.execute(sql)
    print(f"affect_row2:{affect_row2}")
    logger.info("hello world!")
    connect.commit()
    if connect:
        connect.close()


if __name__ == '__main__':
    multi_pool = MultiPool(10)
    main()
    multi_pool.close()
    multi_pool.join()
    if conn:
        conn.close()
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值