利用多线程实现对csv文件的处理。

2 篇文章 0 订阅
1 篇文章 0 订阅

背景:

数据组同事需要一个小工具帮组他们处理一些数据。首先他们的原数据是csv文件的,需要我们把里面的数据和别的系统里面的数据逐条匹配完善后返回给他们一个csv文件。原数据的csv一般3-5万条数据量(单列的)。

解决方案:

首先读取csv文件,生成待处理数据集合。然后把该数据集合分片,以使用多线程进行匹配处理。最后通过POI生成csv输出。(一开始同事没有使用多线程,虽然数据量不算大,但是匹配和处理过程需要多次调用别的系统的接口服务,所以速度上还是有点慢的。他问我如何优化,这才引入多线程,处理数据速度明显提升。)

具体实现:

0、方法主干:

FileInputStream inStream = new FileInputStream(filename);
            List<String> csvList = readCsv(inStream);//--对应下面第一步
            //保证线程安全,数据不会丢失
            List<Map<String, Object>> writeCsv = Collections.synchronizedList(new ArrayList());
            List<List<String>> thredList = new ArrayList<>();
            //List分片--偏移量可以根据自己的需要来处理,这里示例代码暂且给10
            thredList = averageAssign(csvList,10);//--对应下面第二步
            //创建线程池
            ExecutorService fixedThreadPool = Executors.newFixedThreadPool(thredList.size());
            for (int i = 0; i < thredList.size(); i++) {//根据分割的list数量创建多个线程
                List<String> list = thredList.get(i);
                MyThread myThread = new MyThread(i, writeCsv, list, tokenUrl, token);//具体的数据处理逻辑都在线程的run方法中。
                Thread tempThread = new Thread(myThread);
                tempThread.setName("线程" + i);
                fixedThreadPool.execute(tempThread);
            }
            fixedThreadPool.shutdown();//关闭线程池--当该线程池中所有线程都结束后关闭线程池
            while (true) {//等待所有任务都执行结束
                if (fixedThreadPool.isTerminated()) {//所有的子线程都结束了
                    System.out.println("共耗时:"+(System.currentTimeMillis()-startTime)/1000.0+"s");
                    break;
                }
            }
            try {
                long endTime1 = System.currentTimeMillis();
                float endTimePp = (float) (endTime1 - startTime) / 1000;
                logger.info("匹配结束时间:" + endTimePp + "s");
                //创建临时csv文件
                long startTim = System.currentTimeMillis();
                logger.info("文件写入开始时间:" + startTim);
                logger.info("文件写入开始时间writeCsv==:" + writeCsv.size());
                CsvUtil.createTempFile(writeCsv, urlCharset);//通过POI工具类创建csv文件并写入数据
                long endTime = System.currentTimeMillis();
                float excTime = (float) (endTime - startTim) / 1000;
                logger.info("文件写入结束时间:" + excTime + "s");
            } catch (IOException e) {
                e.printStackTrace();
                System.out.println("导出失败");
            }

1、首先读取csv文件。

public static List<String> readCsv(InputStream inStream) throws IOException {
        List<String> medicalWhiteListVOs = new ArrayList<String>();
        try {
            BufferedReader reader = new BufferedReader(new InputStreamReader(inStream, "UTF-8"));
            reader.readLine();//第一行信息,为标题信息,不用,如果需要,注释掉
            String line = null;
            int num = 0;
            while ((line = reader.readLine()) != null) {
                num++;
                String item[] = line.split(",");//CSV格式文件为逗号分隔符文件,这里根据逗号切分
                medicalWhiteListVOs.add(getValue(item, 0));
            }
            logger.info("**一共行数**:" + num);

        } catch (Exception e) {
            e.printStackTrace();
        }

        return medicalWhiteListVOs;
    }

2、把上面获得的数据list分片,切割成多个list。

/**
     * 将一个list均分成n个list,主要通过偏移量来实现的
     * @param source 原list

     * @param n  要分成几个list
     * @return
     */
    public static <T> List<List<T>> averageAssign(List<T> source,int n){
        List<List<T>> result=new ArrayList<List<T>>();
        int remaider=source.size()%n; //(先计算出余数)
        int number=source.size()/n; //然后是商
        int offset=0;//偏移量
        for(int i=0;i<n;i++){
            List<T> value=null;
            if(remaider>0){
                value=source.subList(i*number+offset, (i+1)*number+offset+1);
                remaider--;
                offset++;
            }else{
                value=source.subList(i*number+offset, (i+1)*number+offset);
            }
            result.add(value);
        }
        return result;
    }

3、创建线程池,并循环创建多线程。多个线程一起处理分割后的数据集合,然后 写入同一个大的list。//创建大的数据集合用于接收各个线程处理后的数据,由于ArrayList是线程不安全的所以为了保证线程安全,数据不会丢失,在此对ArrayList进行序列化,不然会有数据丢失
           

 List<Map<String, Object>> writeCsv = Collections.synchronizedList(new ArrayList());

//创建线程池
            ExecutorService fixedThreadPool = Executors.newFixedThreadPool(thredList.size());
            for (int i = 0; i < thredList.size(); i++) {
                List<String> list = thredList.get(i);
                MyThread myThread = new MyThread(i, writeCsv, list, tokenUrl, token);//具体处理逻辑都在线程的run方法中
                Thread tempThread = new Thread(myThread);
                tempThread.setName("线程" + i);
                fixedThreadPool.execute(tempThread);
            }
            fixedThreadPool.shutdown();
            while (true) {//等待所有任务都执行结束
                if (fixedThreadPool.isTerminated()) {//所有的子线程都结束了
                    System.out.println("共耗时:"+(System.currentTimeMillis()-startTime)/1000.0+"s");
                    break;
                }
            }

4、线程的创建。

/**
     * 自定义线程
     * */
    class MyThread implements Runnable {
        private int i; // 第几个线程
        private List<String> csvList;
        private String token;
        private String tokenUrl;
        private List<Map<String, Object>> writeCsv;

//自定义构造方法
        public MyThread( int i,List<Map<String, Object>> writeCsv,List<String> csvList, String tokenUrl, String token) {
            this.i = i;
            this.writeCsv = writeCsv;
            this.csvList = csvList;
            this.token = token;
            this.tokenUrl = tokenUrl;
        }

        public void run() {
            try {
                System.out.println("=====================进入线程得方法================" +Thread.currentThread().getName() + ": " + i +"--------------"+csvList.size());
                for (int j = 0; j < csvList.size(); j++) {
                    String str= csvList.get(j);//获取待处理数据
                    。。。。。。具体的处理实现需要根据自己的业务需求来编码
                    }
                    writeCsv.add(map);
                }
            }catch (Exception e) {
                e.printStackTrace();
                System.out.println("导出失败");
            }
        }

    }

5、POI写入csv。

/**
     * 创建临时的csv文件
     * @return
     * @throws IOException
     */
    public static File createTempFile(List<Map<String, Object>> datas,String urlCharet) throws IOException {
        File tempFile = File.createTempFile("vehicle", ".csv");
        System.out.println("缓存路径=========="+tempFile.getCanonicalPath());
        CsvWriter csvWriter = new CsvWriter(tempFile.getCanonicalPath(), ',', Charset.forName(urlCharet));
        // 写表头
        String[] headers = {"结果地址对应的标准地址编码", "结果地址","地址层级","地址结果评分","地址经纬度","地址空间面信息","省","市","区","街道","社区"
                             ,"街路巷","门牌","小区","建筑物","单元","楼层","户室","匹配结果","原始数据","相似度评分"};
        csvWriter.writeRecord(headers);
        for (Map<String ,Object> data : datas) {
            //这里如果数据不是String类型,请进行转换
            csvWriter.write(data.get("code")==null?"":data.get("code")+"");
            csvWriter.write(data.get("addr")==null?"":data.get("addr")+"");
            csvWriter.write(data.get("lv")==null?"":data.get("lv")+"");
            csvWriter.write(data.get("score")==null?"":data.get("score")+"");
            csvWriter.write(data.get("loc")==null?"":data.get("loc")+"");
            csvWriter.write(data.get("shape")==null?"":data.get("shape")+"");
            csvWriter.write(data.get("province")==null?"":data.get("province")+"");
            csvWriter.write(data.get("city")==null?"":data.get("city")+"");
            csvWriter.write(data.get("district")==null?"":data.get("district")+"");
            csvWriter.write(data.get("street")==null?"":data.get("street")+"");
            csvWriter.write(data.get("community")==null?"":data.get("community")+"");
            csvWriter.write(data.get("road")==null?"":data.get("road")+"");
            csvWriter.write(data.get("road_num")==null?"":data.get("road_num")+"");
            csvWriter.write(data.get("village")==null?"":data.get("village")+"");
            csvWriter.write(data.get("building")==null?"":data.get("building")+"");
            csvWriter.write(data.get("building_num")==null?"":data.get("building_num")+"");
            csvWriter.write(data.get("room_floor")==null?"":data.get("room_floor")+"");
            csvWriter.write(data.get("house_num")==null?"":data.get("house_num")+"");
            csvWriter.write(data.get("ppqk")==null?"":data.get("ppqk")+"");
            csvWriter.write(data.get("yssj")==null?"":data.get("yssj")+"");
            csvWriter.write(data.get("pf")==null?"":data.get("pf")+"");
            csvWriter.endRecord();
            csvWriter.flush();
        }
        csvWriter.close();
        return tempFile;
    }

如果有需要输出exl表格的同学可参见以下链接:java+poi生成excel并通过浏览器实现下载_xiaolege_的博客-CSDN博客_poi导出excel浏览器下载

及表格样式设置:POI设置excel样式_xiaolege_的博客-CSDN博客

至此整个小工具的功能算是完成了。处理数据速度相对原来单线程提升了好几倍,3万数据只要半分钟左右。

工具源码:demoCsv.zip-Java代码类资源-CSDN下载

  • 3
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
### 回答1: 在 Python 中,可以使用 `concurrent.futures` 模块中的 `ThreadPoolExecutor` 类来实现多线程。首先,使用 `pd.concat()` 或 `pd.merge()` 将多个 DataFrame 合并在一起。然后,使用 `ThreadPoolExecutor` 类将合并操作放入线程池中运行。 示例代码如下: ```python import pandas as pd from concurrent.futures import ThreadPoolExecutor # 使用 pd.concat() 或 pd.merge() 将多个 DataFrame 合并在一起 df1 = pd.DataFrame({'A': [1, 2, 3], 'B': [4, 5, 6]}) df2 = pd.DataFrame({'A': [7, 8, 9], 'B': [10, 11, 12]}) df3 = pd.concat([df1, df2]) # 使用 ThreadPoolExecutor 将合并操作放入线程池中运行 with ThreadPoolExecutor() as executor: result = executor.submit(pd.concat,[df1,df2]) # do something with result ``` 需要注意的是,如果你要使用多线程合并大量的 DataFrame,那么最好使用其他更高效的库,例如 Dask 或 Vaex。 ### 回答2: 使用多线程实现运行后的DateFrame合并可以通过以下步骤实现: 1. 导入需要的库和模块,如pandas、threading等。 2. 定义一个合并函数merge_data,该函数接受两个参数——要合并的两个DataFrame。 3. 在merge_data函数中,使用pandas的merge方法将两个DataFrame合并成一个,并返回合并后的结果。 4. 创建一个多线程类MergeThread,继承自threading.Thread类。 5. 在MergeThread类的构造函数中,接受两个参数——要合并的两个DataFrame,并将其保存为类的成员变量。 6. 在MergeThread类的run方法中,调用merge_data函数将两个DataFrame合并。 7. 创建并启动多个MergeThread实例,每个实例对应一个待合并的数据集。 8. 使用join方法等待所有线程运行结束。 9. 将合并后的数据保存到文件使用其他方式进行处理。 下面是一个简单的示例代码: ```python import pandas as pd import threading def merge_data(df1, df2): merged_df = pd.merge(df1, df2, on='key') return merged_df class MergeThread(threading.Thread): def __init__(self, df1, df2): threading.Thread.__init__(self) self.df1 = df1 self.df2 = df2 def run(self): merged_df = merge_data(self.df1, self.df2) print(merged_df) # 创建两个待合并的DataFrame df1 = pd.DataFrame({'key': ['A', 'B', 'C'], 'value1': [1, 2, 3]}) df2 = pd.DataFrame({'key': ['C', 'D', 'E'], 'value2': [4, 5, 6]}) # 创建多个MergeThread实例,并启动 thread1 = MergeThread(df1, df2) thread2 = MergeThread(df1, df2) thread1.start() thread2.start() # 等待所有线程运行结束 thread1.join() thread2.join() ``` 以上示例中,两个MergeThread实例分别对应两个待合并的数据集,通过多线程运行并发地完成数据合并操作。 ### 回答3: 在Python中利用多线程进行DataFrame的合并时,可以使用`concurrent.futures`模块来实现。 首先,要导入`concurrent.futures`模块来创建一个线程池,然后将待合并的DataFrame划分成多个子DataFrame,每个子DataFrame在一个线程中进行合并操作。 以下是一个示例代码: ```python import pandas as pd import concurrent.futures # 创建线程池 executor = concurrent.futures.ThreadPoolExecutor() # 定义合并函数 def merge(df1, df2): return pd.merge(df1, df2) # 加载待合并的DataFrame df1 = pd.read_csv('data1.csv') df2 = pd.read_csv('data2.csv') df3 = pd.read_csv('data3.csv') # 划分子DataFrame sub_df1 = df1.iloc[:100] sub_df2 = df2.iloc[100:200] sub_df3 = df3.iloc[200:300] # 在线程池中进行合并操作 futures = [] futures.append(executor.submit(merge, sub_df1, sub_df2)) futures.append(executor.submit(merge, futures[0].result(), sub_df3)) # 等待所有线程完成 concurrent.futures.wait(futures) # 获取合并结果 final_df = futures[1].result() # 打印最终结果 print(final_df) ``` 在上述代码中,首先创建了一个线程池对象`executor`。然后,定义了一个合并函数`merge`,用于合并两个DataFrame。然后,根据需要合并的DataFrame,将其划分为若干个子DataFrame。接下来,使用`executor.submit`方法将合并函数和子DataFrame提交到线程池中进行执行,并将返回的`Future`对象添加到`futures`列表中。然后,使用`concurrent.futures.wait`方法等待所有线程完成。最后,将最终合并的DataFrame保存在`final_df`变量中,并打印出来。 需要注意的是,在使用多线程进行DataFrame合并时,要确保合并的操作时线程安全的,避免出现数据竞争和其他线程安全的问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值