在Python中,由于全局解释器锁(GIL)的存在,多线程在执行CPU密集型任务时并不能真正并行运行,这限制了多线程在处理这类任务时的效率。然而,对于IO密集型任务或需要并行处理大量独立任务时,多线程仍然是一个好选择。对于CPU密集型任务,多进程是一个更好的选择,因为每个进程都有自己独立的内存空间,Python的GIL不会影响到它们之间的并行执行。
多进程之间共享数据通常比多线程复杂,因为进程之间默认是相互隔离的。不过,Python提供了几种方式来实现多进程间的数据共享:
### 1. 使用`multiprocessing`模块中的`Value`和`Array`
`multiprocessing`模块提供了`Value`和`Array`类,这些类可以用于在多个进程之间共享简单的数据类型(如整数、浮点数等)和数组。
```python
from multiprocessing import Process, Value, Lock
def worker(num, lock, counter):
with lock:
counter.value += num
if __name__ == '__main__':
lock = Lock()
counter = Value('i', 0) # 创建一个整型Value
p1 = Process(target=worker, args=(1, lock, counter))
p2 = Process(target=worker, args=(2, lock, counter))
p1.start()
p2.start()
p1.join()
p2.join()
print(counter.value) # 输出: 3
```
### 2. 使用`multiprocessing.Manager()`
`Manager()`类提供了一个服务器进程,该进程可以持有Python对象并允许其他进程通过代理访问它们。这对于在进程间共享复杂数据结构(如列表、字典等)特别有用。
```python
from multiprocessing import Process, Manager
def worker(d, key, value):
d[key] = value
if __name__ == '__main__':
with Manager() as manager:
d = manager.dict() # 创建一个可在多个进程间共享的字典
p1 = Process(target=worker, args=(d, 'a', 1))
p2 = Process(target=worker, args=(d, 'b', 2))
p1.start()
p2.start()
p1.join()
p2.join()
print(d) # 输出: {'a': 1, 'b': 2}
```
### 注意事项
- 当使用多进程共享数据时,需要考虑到数据一致性和同步问题。在上述例子中,通过`Lock`来确保在修改共享数据时不会出现竞态条件。
- 共享数据可能会增加程序的复杂性和错误风险,特别是在多个进程需要频繁读写共享数据时。因此,在设计程序时,应尽量避免不必要的共享,或者通过其他机制(如消息队列、文件等)来间接实现进程间的通信。