一、多进程
1.使用multiprocessing模块
- multiprocessing模块就是跨平台版本的多进程模块,提供了一个Process类来代表一个进程对象,这个对象可以理解为是一个独立的进程,可以执行另外的事情
from multiprocessing import Process
Process语法结构如下:
-
Process(group=None, target=None, name=None, args=(), kwargs={})
- target:如果传递了函数的引用,任务子进程就执行这里的代码
- args:给target指定的函数传递的参数,以元组的方式传递
- kwargs:给target指定的函数传递命名参数
- name:给进程设定一个名字,可以不设定
- group:指定进程组,大多数情况下用不到
-
Process创建的实例对象的常用方法:
- start():启动子进程实例(创建子进程)
- is_alive():判断进程子进程是否还在活着
- join([timeout]):是否等待子进程执行结束,或等待多少秒
- terminate():不管任务是否完成,立即终止子进程
-
Process创建的实例对象的常用属性:
- name:当前进程的别名,默认为Process-N,N为从1开始递增的整数
- pid:当前进程的pid(进程号)
from multiprocessing import Process
import os
from time import sleep
def run_proc(name, age, **kwargs):
for i in range(10):
print('子进程运行中,name= %s,age=%d ,pid=%d...' % (name, age, os.getpid()))
print(kwargs)
sleep(0.2)
if __name__=='__main__':
p = Process(target=run_proc, args=('test',18), kwargs={"m":20})
p.start()
sleep(1) # 1秒中之后,立即结束子进程
p.terminate()
p.join()
运行结果
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}
子进程运行中,name= test,age=18 ,pid=45097…
{‘m’: 20}
2.进程间的通信
2.1QUEUE的使用
from multiprocessing import Queue
2.1.1Queue(maxsize=0)
- maxsize等于0或者负数表示可接受的消息数量没有上限
2.1.2方法
-
Queue.qsize():返回当前队列包含的消息数量;
-
Queue.empty():如果队列为空,返回True,反之False ;
-
Queue.full():如果队列满了,返回True,反之False;
-
Queue.get(block=True, tiomeout=None):获取队列中的一条消息,然后将其从列队中移除,block默认值为True;
-
1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果为空,此时程序将被阻塞(停在读取状态),直到从消息列队读到消息为止,如果设置了timeout,则会等待timeout秒,若还没读取到任何消息,则抛出"Queue.Empty"异常;
-
2)如果block值为False,消息列队如果为空,则会立刻抛出"Queue.Empty"异常;
-
-
Queue.get_nowait():相当Queue.get(block=False);
-
Queue.put(obj,block=True,timeout=None):将obj消息写入队列,block默认值为True;
-
1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果已经没有空间可写入,此时程序将被阻塞(停在写入状态),直到从消息列队腾出空间为止,如果设置了timeout,则会等待timeout秒,若还没空间,则抛出"Queue.Full"异常;
-
2)如果block值为False,消息列队如果没有空间可写入,则会立刻抛出"Queue.Full"异常;
-
-
Queue.put_nowait(obj):相当Queue.put(obj, block=False);
我们以Queue为例,在父进程中创建两个子进程,一个往Queue里写数据,一个从Queue里读数据:
from multiprocessing import Process, Queue
import os, time, random
# 写数据进程执行的代码:
def write(q):
for value in ['A', 'B', 'C']:
print('Put %s to queue...' % value)
q.put(value)
time.sleep(random.random())
# 读数据进程执行的代码:
def read(q):
while True:
if not q.empty():
value = q.get(True)
print('Get %s from queue.' % value)
time.sleep(random.random())
else:
break
if __name__=='__main__':
# 父进程创建Queue,并传给各个子进程:
q = Queue()
pw = Process(target=write, args=(q,))
pr = Process(target=read, args=(q,))
# 启动子进程pw,写入:
pw.start()
# 等待pw结束:
pw.join()
# 启动子进程pr,读取:
pr.start()
pr.join()
# pr进程里是死循环,无法等待其结束,只能强行终止:
print('')
print('所有数据都写入并且读完')
3.进程池
- 当需要创建的子进程数量不多时,可以直接利用multiprocessing中的Process动态成生多个进程,但如果是上百甚至上千个目标,手动的去创建进程的工作量巨大,此时就可以用到multiprocessing模块提供的Pool方法。
- 初始化Pool时,可以指定一个最大进程数,当有新的请求提交到Pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到指定的最大值,那么该请求就会等待,直到池中有进程结束,才会用之前的进程来执行新的任务,
from multiprocessing import Pool
3.1创建进程池
po = Pool(processes=None)
3.2Pool常用方法:
- apply_async(func, args=(), kwds={}) :使用非阻塞方式调用func(并行执行,堵塞方式必须等待上一个进程退出才能执行下一个进程),args为传递给func的参数列表,kwds为传递给func的关键字参数列表;
- close():关闭Pool,使其不再接受新的任务;
- terminate():不管任务是否完成,立即终止;
- join():主进程阻塞,等待子进程的退出, 必须在close或terminate之后使用;
from multiprocessing import Pool
import os, time, random
def worker(msg):
t_start = time.time()
print("%s开始执行,进程号为%d" % (msg,os.getpid()))
# random.random()随机生成0~1之间的浮点数
time.sleep(random.random()*2)
t_stop = time.time()
print(msg,"执行完毕,耗时%0.2f" % (t_stop-t_start))
if __name__=='__main__':
po = Pool(3) # 定义一个进程池,最大进程数3
for i in range(0,10):
# Pool().apply_async(要调用的目标,(传递给目标的参数元祖,))
# 每次循环将会用空闲出来的子进程去调用目标
po.apply_async(worker,(i,))
print("----start----")
po.close() # 关闭进程池,关闭后po不再接收新的请求
po.join() # 等待po中所有子进程执行完成,必须放在close语句之后
print("-----end-----")
运行结果:
----start----
0开始执行,进程号为21466
1开始执行,进程号为21468
2开始执行,进程号为21467
0 执行完毕,耗时1.01
3开始执行,进程号为21466
2 执行完毕,耗时1.24
4开始执行,进程号为21467
3 执行完毕,耗时0.56
5开始执行,进程号为21466
1 执行完毕,耗时1.68
6开始执行,进程号为21468
4 执行完毕,耗时0.67
7开始执行,进程号为21467
5 执行完毕,耗时0.83
8开始执行,进程号为21466
6 执行完毕,耗时0.75
9开始执行,进程号为21468
7 执行完毕,耗时1.03
8 执行完毕,耗时1.05
9 执行完毕,耗时1.69
-----end-----
4.进程池中的通信
- 如果要使用Pool创建进程,就需要使用multiprocessing.Manager()中的Queue(),而不是multiprocessing.Queue(),否则会得到一条如下的错误信息:
RuntimeError: Queue objects should only be shared between processes through inheritance.
from multiprocessing import Manager,Pool
import os,time,random
def reader(q):
print("reader启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
for i in range(q.qsize()):
print("reader从Queue获取到消息:%s" % q.get(True))
def writer(q):
print("writer启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
for i in "itcast":
q.put(i)
if __name__=="__main__":
print("(%s) start" % os.getpid())
q = Manager().Queue() # 使用Manager中的Queue
po = Pool()
po.apply_async(writer, (q,))
time.sleep(1) # 先让上面的任务向Queue存入数据,然后再让下面的任务开始从中取数据
po.apply_async(reader, (q,))
po.close()
po.join()
print("(%s) End" % os.getpid())
运行结果:
(11095) start
writer启动(11097),父进程为(11095)
reader启动(11098),父进程为(11095)
reader从Queue获取到消息:i
reader从Queue获取到消息:t
reader从Queue获取到消息:c
reader从Queue获取到消息:a
reader从Queue获取到消息:s
reader从Queue获取到消息:t
(11095) End
5.多进程与pymysql一起使用需要注意的问题
pymysql的cursor在子进程是无法被解析的,如果要在子进程中操作pymysql,需要在子进程重新定义连接,具体示例如下:
import pymysql
import logging
from multiprocessing import Pool as MultiPool
# 创建一个记录器对象
logger = logging.getLogger()
# 设置日志级别
logger.setLevel(logging.INFO)
logfile = './azure.logs'
# 指定文件处理器,发送日志输出到磁盘文件
fh = logging.FileHandler(logfile, encoding='utf-8')
fh.setLevel(logging.INFO)
# 指定流处理器,发送日志输出
sh = logging.StreamHandler()
sh.setLevel(logging.INFO)
# 添加处理程序对象
logger.addHandler(fh)
logger.addHandler(sh)
mysql_conf = {
"host": '127.0.0.1',
"port": 3306,
"user": 'root',
"password": '1234',
"db": 'sqlalchemy_test',
"charset": "utf8",
"cursorclass": pymysql.cursors.DictCursor
}
task_list = []
conn = pymysql.connect(**mysql_conf)
used_data = {1: "chst1",
2: "chst2",
3: "chst3",
4: "chst4",
5: "chst5",
6: "chst6",
7: "chst7",
8: "chst8",
9: "chst9",
10: "chst10"}
def main():
for i in range(10):
multi_pool.apply_async(into, args=(i, ))
def into(i):
connect = pymysql.connect(**mysql_conf)
with connect.cursor() as cursor:
run(cursor, i, connect)
def run(cursor, i, connect):
print(used_data[i + 1])
sql = '''select * from users where id=1'''
affect_row1 = cursor.execute(sql)
print(f"affect_row1:{affect_row1}")
a = cursor.fetchone()
print(a)
sql = '''UPDATE `users` SET `name` = '111122', `fullname` = '1111' WHERE id=1;'''
affect_row2 = cursor.execute(sql)
print(f"affect_row2:{affect_row2}")
logger.info("hello world!")
connect.commit()
if connect:
connect.close()
if __name__ == '__main__':
multi_pool = MultiPool(10)
main()
multi_pool.close()
multi_pool.join()
if conn:
conn.close()