多线程批量导入mysql

数据分割

public class MyThread {

    /**
     * 
     * @param resList 导入的集合
     * @param subListLength 分割的大小
     * @param <T>
     * @return
     */
    public <T> List<List<T>> split(List<T> resList, int subListLength) {
        if (CollectionUtils.isEmpty(resList) || subListLength <= 0) {
            return Lists.newArrayList();
        }
        List<List<T>> ret = Lists.newArrayList();
        int size = resList.size();
        if (size <= subListLength) {
            // 数据量不足 subListLength 指定的大小
            ret.add(resList);
        } else {
            int pre = size / subListLength;
            int last = size % subListLength;
            // 前面pre个集合,每个大小都是 subListLength 个元素
            for (int i = 0; i < pre; i++) {
                List<T> itemList = Lists.newArrayList();
                for (int j = 0; j < subListLength; j++) {
                    itemList.add(resList.get(i * subListLength + j));
                }
                ret.add(itemList);
            }
            // last的进行处理
            if (last > 0) {
                List<T> itemList = Lists.newArrayList();
                for (int i = 0; i < last; i++) {
                    itemList.add(resList.get(pre * subListLength + i));
                }
                ret.add(itemList);
            }
        }
        return ret;
    }


}

多线程导入

    @Test
    void f() {

        List<Wo> list = woService.list();
        MyThread myThread = new MyThread();
        List<List<Wo>> split = myThread.split(list, 100);

        int n = split.size();
        ThreadPoolExecutor threadPool = new ThreadPoolExecutor(20, 50,
                4, TimeUnit.SECONDS, new LinkedBlockingDeque<>(), new ThreadPoolExecutor.AbortPolicy());
        CountDownLatch countDownLatch = new CountDownLatch(n);

        for (List<Wo> wos : split) {
            threadPool.execute(() -> {
                List<Eo> eos = wos.stream().map(wo -> {
                    Eo eo = new Eo();
                    BeanUtils.copyProperties(wo, eo);
                    return eo;
                }).collect(Collectors.toList());
                eoService.saveBatch(eos);
                countDownLatch.countDown();
            });

        }

        try {
            countDownLatch.await();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }


    }

  • 13
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
您可以使用多线程将数据从数据库批量导入 Elasticsearch。 以下是一个示例代码: ``` // 创建 Elasticsearch 客户端 RestHighLevelClient client = new RestHighLevelClient( RestClient.builder( new HttpHost("localhost", 9200, "http"))); // 创建线程池 ExecutorService executor = Executors.newFixedThreadPool(10); // 查询数据库中的数据 Connection conn = DriverManager.getConnection("jdbc:mysql://localhost:3306/mydatabase", "username", "password"); PreparedStatement statement = conn.prepareStatement("SELECT * FROM mytable"); ResultSet rs = statement.executeQuery(); // 循环遍历查询结果 while (rs.next()) { // 创建写入请求 XContentBuilder builder = XContentFactory.jsonBuilder(); builder.startObject(); builder.field("field1", rs.getString("field1")); builder.field("field2", rs.getString("field2")); builder.endObject(); IndexRequest indexRequest = new IndexRequest("index_name").source(builder); // 提交写入请求到线程池 executor.submit(() -> { try { client.index(indexRequest, RequestOptions.DEFAULT); } catch (IOException e) { e.printStackTrace(); } }); } // 关闭资源 rs.close(); statement.close(); conn.close(); // 关闭 Elasticsearch 客户端和线程池 client.close(); executor.shutdown(); ``` 在上面的代码中,我们使用了一个线程池来并发地将数据导入 Elasticsearch。您可以根据需要调整线程池的大小。 同时,您需要将 `localhost` 和 `9200` 替换为 Elasticsearch 的主机名和端口号,将 `mydatabase` 替换为您的数据库名称,将 `username` 和 `password` 替换为数据库的用户名和密码,将 `mytable` 替换为您要导入的表名,将 `index_name` 替换为要写入的 Elasticsearch 索引名称,将 `field1` 和 `field2` 替换为您要写入的字段名称。 注意,在多线程的情况下,您需要同时处理异常和线程安全性,以确保数据的正确导入

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值