- 由于Python的GIL全局解释器锁存在,多线程未必是CPU密集型程序的好的选择
- 多进程可以完全独立的进程环境中运行程序,可以较充分地利用多处理器
- 但是进程本身的隔离带来的数据不共享也是一个问题。而且线程比进程轻量级
multiprocessing
Process类
- Process类遵循了Thread类的API
import multiprocessing
import datetime
def calc(i):
sum = 0
for _ in range(1000000000): # 10亿
sum += 1
return i, sum
if __name__ == '__main__':
start = datetime.datetime.now()
ps = []
for i in range(4):
p = multiprocessing.Process(target=calc, args=(i,), name='calc-{}'.format())
ps.append(p)
p.start()
for p in ps:
p.join()
print(p.name, p.exitcode)
delta = (datetime.datetime.now() - start).total_seconds()
print(delta)
print('===end===')
对于上面这个程序,在同一主机上运行时长的对比
- 使用单线程、多线程跑了4分钟多
- 多进程用了1分半
看到了多个进程都在使用CPU,这是真并行
注意
多进程代码一定要放在__name__ == "__main__"
下面执行
名称 | 说明 |
---|---|
pid | 进程id |
exitcode | 进程的退出状态码 |
terminate() | 终止指定的进程 |
进程间同步
- Python在进程间同步提供了和线程同步一样的类,使用的方法一样,使用的效果也类似
- 不过,进程间代价要高于线程间,而且系统底层实现是不同的,只不过Python屏蔽了这些不同之处,让用户简单使用多进程
- multiprocessing还提供共享内存、服务器进程来共享数据,还提供了用于进程间通讯的Queue队列、Pipe管道
- 通信方式不同
- 多进程就是启动多个解释器进程,进程间通信必须序列化、反序列化
- 数据的线程安全性问题
如果每个进程中没有实现多线程,GIL可以说没什么用了
进程池举例
- multiprocessing.Pool 是进程池类
名称 | 说明 |
---|---|
apply(self, func, args=(), kwds={}) | 阻塞执行,导致主进程执行其他子进程就像一个个执行 |
apply_async(self, func, args=(), kwds={}, callback=None, error_callback=None) | 与apply方法用法一致,非阻塞异步执行,得到结果后会执行回调 |
close() | 关闭池,池不能再接受新的任务,所有任务完成后退出进程 |
terminate() | 立即结束工作进程,不再处理未处理的任务 |
join() | 主进程阻塞等待子进程的退出, join方法要在close或terminate之后使用 |
同步调用
pool.apply
同步阻塞的方法,多进程串行
import logging
import datetime
import multiprocessing
# 日志打印进行id、进程名、线程id、线程名
logging.basicConfig(level=logging.INFO,
format="%(process)d %(processName)s %(thread)d %(message)s")
def calc(i):
sum = 0
for _ in range(1000000000): # 10亿
sum += 1
logging.info(sum)
return i, sum # 进程要return,才可以拿到这个结果
if __name__ == '__main__':
start = datetime.datetime.now()
pool = multiprocessing.Pool(4)
for i in range(4):
# 返回值,同步调用,注意观察CPU使用
ret = pool.apply(calc, args=(i,))
print(ret)
pool.close()
pool.join()
delta = (datetime.datetime.now() - start).total_seconds()
print(delta)
print('===end===')
- 执行结果
333980 SpawnPoolWorker-1 332164 1000000000
(0, 1000000000)
(1, 1000000000)
332272 SpawnPoolWorker-3 332200 1000000000
(2, 1000000000)
334224 SpawnPoolWorker-4 324984 1000000000
332264 SpawnPoolWorker-2 332232 1000000000
(3, 1000000000)
483.274714
===end===
- cup使用情况,4个进程串行处理
异步调用
pool.aaply_async
异步非阻塞,真并行
import logging
import datetime
import multiprocessing
# 日志打印进行id、进程名、线程id、线程名
logging.basicConfig(level=logging.INFO,
format="%(process)d %(processName)s %(thread)d %(message)s")
def calc(i):
sum = 0
for _ in range(1000000000): # 10亿
sum += 1
logging.info(sum)
return i, sum # 进程要return,callback才可以拿到这个结果
if __name__ == '__main__':
start = datetime.datetime.now()
pool = multiprocessing.Pool(4)
for i in range(4):
# 异步拿到的返回值是什么,回调起了什么作用
ret = pool.apply_async(
calc, args=(i,),callback=lambda ret: logging.info('{} in callback'.format(ret)))
print(ret, '~~~~~~~')
pool.close()
pool.join()
delta = (datetime.datetime.now() - start).total_seconds()
print(delta)
print('===end===')
- 执行结果
<multiprocessing.pool.ApplyResult object at 0x0000015814F616D8> ~~~~~~~
<multiprocessing.pool.ApplyResult object at 0x0000015814F61780> ~~~~~~~
<multiprocessing.pool.ApplyResult object at 0x0000015814F618D0> ~~~~~~~
<multiprocessing.pool.ApplyResult object at 0x0000015814F61978> ~~~~~~~
335068 SpawnPoolWorker-4 208444 1000000000
334080 MainProcess 335552 (2, 1000000000) in callback
332176 SpawnPoolWorker-2 334620 1000000000
334080 MainProcess 335552 (1, 1000000000) in callback
328432 SpawnPoolWorker-1 335124 1000000000
334080 MainProcess 335552 (0, 1000000000) in callback
334840 SpawnPoolWorker-3 335532 1000000000
334080 MainProcess 335552 (3, 1000000000) in callback
204.866947
===end===
- cpu运行情况,4个进程并行处理
多进程、多线程的选择
- CPU密集型
CPython中使用到了GIL,多线程的时候锁相互竞争,且多核优势不能发挥,选用Python多进程效率更高 - IP密集型
在Python中适合是用多线程,可以减少多进程间IO的序列化开销。且在IO等待的时候,切换到其他线程继续执行,效率不错
应用
请求/应答模型:WEB应用中常见的处理模型
- master启动多个worker工作进程,一般和CPU数目相同。发挥多核优势
- worker工作进程中,往往需要操作网络IO和磁盘IO,启动多线程,提高并发处理能力。worker处理用户的请求,往往需要等待数据,处理完请求还要通过网络IO返回响应
- 这就是nginx工作模式