python 用map()函数创建多线程任务
对于多线程的使用,我们经常是用thread来创建,比较繁琐. 在Python中,可以使用map函数简化代码。map可以实现多任务的并发,简单说明map()实现多线程原理:
task = [‘任务1’, ‘任务2’, ‘任务3’, …]
map 函数一手包办了序列操作、参数传递和结果保存等一系列的操作,
map函数负责将线程分给不同的CPU。
在 Python 中有个两个库包含了 map 函数: multiprocessing 和它鲜为人知的子库 multiprocessing.dummy.dummy 是 multiprocessing 模块的完整克隆,唯一的不同在于 multiprocessing 作用于进程,而 dummy 模块作用于线程。
代码如下:
from multiprocessing.dummy import Pool as ThreadPool
import os
import requests
import time
import numpy as np
# 文件夹位置
filepath = r'C:\Users\Administrator\Desktop\ceshi'
pool = ThreadPool(10)#开启线程数,即一次性抛出的请求数
time_list = []#用来计算时间
xml_list = []#数据集
pathDir = os.listdir(filepath)
for i, allDir in enumerate(pathDir):
filename = os.path.join('%s%s' % (filepath + '\\', allDir))
kk = open(filename, 'r', encoding='utf-8').read()
data = kk.encode('utf-8')
for k in range(10):
xml_list.append(data)
def res(data):
# 访问目标服务器地址
url_host = 'https://mp.csdn.net/mdeditor#'
start = time.clock()
s = requests.post(url_host, data=data)
end = time.clock()
if s.status_code == 200:
print(end-start)
time_list.append(end-start)
else:
print('请求失败')
# 传入的参数,1为函数, 2为参数
result = pool.map(res, xml_list)
all_arr = np.array(time_list)
aver = np.mean(all_arr)
variance = np.var(all_arr)
mid = np.median(all_arr)
min_num = np.min(all_arr)
max_num = np.max(all_arr)
print('平均值 : '+ str(aver))
print('方差 : ' + str(variance))
print('中值 : ' + str(mid))
print('最小值 : ' + str(min_num))
print('最大值 : ' + str(max_num))
个人做的小测试, 如果有错误的地方希望留言提出意见及建议.
如果有用的话麻烦点赞0.0~