multiprocessing跨平台实现多线程
理解:
如果你打算编写多进程的服务程序,Unix/Linux无疑是正确的选择。由于Windows没有fork调用,难道在Windows上无法用Python编写多进程的程序?
由于Python是跨平台的,自然也应该提供一个跨平台的多进程支持。multiprocessing模块就是跨平台版本的多进程模块。
multiprocessing模块提供了一个Process类来代表一个进程对象,下面的例子演示了
启动一个子进程并等待其结束:
创建子进程时,只需要传入一个执行函数和函数的参数,创建一个Process实例,用start()方法启动,这样创建进程比fork()还要简单。
join()方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步。
1.Process使用属性及方法
Process 类用来描述一个进程对象。创建子进程的时候,只需要传入一个执行函数和函数的参数即可完成 Process 示例的创建。
start() 方法启动进程
join() 方法实现进程间的同步,等待所有进程退出。
close() 用来阻止多余的进程涌入进程池 Pool 造成进程阻塞。
multiprocessing.Process(group=None, target=None, name=None, args=(), kwargs={}, *, daemon=None)
target 是函数名字,需要调用的函数
args 函数需要的参数,以 tuple 的形式传入
multiprocessing跨平台实现多进程
import multiprocessing
def job():
print("当前子进程的名称%s....." %(multiprocessing.current_process()))
# 通过类的实例化实现
p1 = multiprocessing.Process(target=job, name="我的第1个子进程")
p1.start()
# 通过类的实例化实现
p2 = multiprocessing.Process(target=job, name="我的第2个子进程")
p2.start()
# join方法, 等待所有的子进程执行结束, 再执行主进程
p1.join()
p2.join()
print("任务执行结束.....")
2.重写run方法
import multiprocessing
class MyProcess(multiprocessing.Process):
# 重写run方法=====start方法默认执行run方法
def run(self):
print("当前子进程的名称%s....." % (multiprocessing.current_process()))
p1 = MyProcess(name="first")
p1.start()
p2 = MyProcess(name="second")
p2.start()
p1.join()
p2.join()
print("all finish.....")
多进程案例:
1.新建一个mytimeit文件:(作为装饰器)再导入
import time
def timeit(f):
def wrapper(*args, **kwargs):
start_time = time.time()
res = f(*args, **kwargs)
end_time = time.time()
print("%s函数运行时间:%.8f" % (f.__name__, end_time - start_time))
return res
return wrapper
主程序:
import threading
from day21.mytimeit import timeit
import multiprocessing
def job(li):
return sum(li)
# 多线程
@timeit
def use_thread():
li = range(1, 100000000)
# create 5 threads
threads = []
for i in range(5):
t = threading.Thread(target=job, args=(li, ))
t.start()
threads.append(t)
[thread.join() for thread in threads]
@timeit
def use_no_thread():
li = range(1, 100000000)
for i in range(5):
job(li)
@timeit
def use_process():
li = range(1, 100000000)
# create 5 threads
processes = []
# 1). 开启的进程书是有瓶颈的, 取决于CPU个数,
# 2). 如果处理的数据比较小, 不建议使用多进程,因为创建进程和销毁进程需要时间;
# 3). 如果处理数据足够大, 0《进程数《cpu个数;
for i in range(5):
p = multiprocessing.Process(target=job, args=(li,))
p.start()
processes.append(p)
[process.join() for process in processes]
if __name__ == "__main__":
use_thread()
use_process()
use_no_thread()
可以看出来多进程比多线程节省很多时间。