python concurrent 多进程、多线程传递多参数的真正方法

 concurrent.futures模块可以使用多进程、多线程,concurrent.futures.Executor.map(fn, *iterables)可以简洁高效地并发执行函数,第一个参数为函数名,第二个参数为函数的参数。但网上的教程大多只传递给函数一个参数,实用性太低。

网上搜到的给map()函数传递多参数的方法有两种,使用zip()函数打包或使用偏函数,都是错的!!!

实际上,给map()函数传递多参数,依次传递就行了。下面是例子。

from concurrent.futures import ProcessPoolExecutor


def test(data1,data2,k1=1,k2=10,k3=-5):
    print(f'${data1}_${data2}_${k1}_${k2}_${k3}!')

def main():
    datalist_1 = [1,2,3,4,5,6]
    datalist_2 = ['a','b','c','d','e','f']
    k1 = [1,3,5,7,9,11]
    k2 = [2,4,6,8,10,12]
    k3 = [-1,-3,-5,-7,-9,-11]
    with ProcessPoolExecutor() as executor:
        result = executor.map(test, datalist_1,datalist_2,k1,k2,k3)

if __name__ == '__main__':
    main()
        

在这个例子中,有默认参数,如果部分默认参数不变,最简单的办法是把默认参数再传递一遍,结果也是一样的。

def main_1():
    datalist_1 = [1,2,3,4,5,6]
    datalist_2 = ['a','b','c','d','e','f']
    k1 = [1,3,5,7,9,11]
    k2 = [10] * len(datalist_1)
    k3 = [-5] * len(datalist_1)
    with ProcessPoolExecutor() as executor:
        result = executor.map(test, datalist_1,datalist_2,k1,k2,k3)

如果函数的参数不固定,有可变参数,不好直接传递,可以采用submit的形式。

from concurrent.futures import as_completed

def main_2():
    datalist_1 = [1,2,3,4,5,6]
    datalist_2 = ['a','b','c','d','e','f']
    k1 = [{'k1':1},{'k1':3},{'k1':5},{'k1':7},{'k1':9},{'k1':11}]
    k3 = [-1,-3,-5,-7,-9,-11]
    with ProcessPoolExecutor() as executor:
        jobs, result = [], []
        for i in range(len(datalist_1)):
            jobs.append(executor.submit(test, datalist_1[i], datalist_2[i], **k1[i], **{'k3':k3[i]}))
        for job in as_completed(jobs):
            result.append(job.result())

多线程的话是一样的,把ProcessPoolExecutor换成ThreadPoolExecutor就行了。

  • 8
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Python中实现多线程多进程的方式有很多,例如使用Thread和Process模块,以及使用concurrent.futures和multiprocessing模块等。下面介绍一些多线程多进程调优的方法: 1. 使用线程池和进程池 创建大量线程或进程会导致系统资源的浪费和性能下降,因此可以使用线程池和进程池来控制并发数量,提高执行效率。线程池和进程池可以通过ThreadPoolExecutor和ProcessPoolExecutor来创建,示例如下: ```python from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor # 创建线程池 with ThreadPoolExecutor(max_workers=4) as executor: results = executor.map(func, args) # 创建进程池 with ProcessPoolExecutor(max_workers=4) as executor: results = executor.map(func, args) ``` 其中,max_workers表示最大并发数,func表示要执行的函数,args表示函数的参数。 2. 使用共享内存 多进程之间的通信可以使用共享内存来提高效率,例如使用multiprocessing模块中的Value和Array来创建共享变量,示例如下: ```python import multiprocessing as mp # 创建共享变量 value = mp.Value('i', 0) array = mp.Array('i', range(10)) ``` 其中,'i'表示变量类型为整型,0表示初始值,range(10)表示数组的初始值。 3. 避免全局解释器锁(GIL) Python的全局解释器锁(GIL)会导致多线程程序的性能瓶颈,因此可以使用多进程来避免GIL的影响。另外,也可以使用Cython等工具将CPU密集型任务转换为C语言或其他语言来提高性能。 4. 使用异步编程 异步编程可以将阻塞的I/O操作转化为非阻塞的异步操作,从而提高程序的性能和响应速度。Python中可以使用asyncio模块来实现异步编程,示例如下: ```python import asyncio async def func(): # 异步操作 pass # 创建事件循环 loop = asyncio.get_event_loop() # 异步执行函数 loop.run_until_complete(func()) ``` 其中,async定义的函数表示异步函数,asyncio.get_event_loop()用于创建事件循环,loop.run_until_complete()用于异步执行函数。 以上是一些多线程多进程调优的方法,可以根据实际情况选择相应的方法来提高程序性能。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值