多线程使用场景之一:如何使用多线程完成数据库批量查询

在做使用多线程完成数据库查询之前,我们先理清逻辑,使用分页的方式,每个线程完成对应的查询。

我们首先得有个工具类 来帮我们理好每个线程它分页的起始索引,以及它们所要查询的数量。

我的业务是查车辆的轨迹gps信号。

package com.htzn.pm.truck.util;

import java.util.HashMap;
import java.util.Map;

public class SplitUtil {

    // 根据查询记录数和线程数量分配每条线程查询记录数
    public static Map<String, String> splitMap(int count, int threadCoreNum) {
        Map<String, String> splitMap = new HashMap<>(threadCoreNum);

        // 每个线程分配的查询记录数
        int offsetNum = count / threadCoreNum;
        int residue = count % threadCoreNum;

        for (int i = 1; i <= threadCoreNum; i++) {
            if (i == 1) {
                splitMap.put(String.valueOf(i), i - 1 + ":" + offsetNum);
            } else if(i < threadCoreNum) {
                splitMap.put(String.valueOf(i), (i - 1) * offsetNum + ":" + offsetNum);
            } else {
                splitMap.put(String.valueOf(i), (i - 1) * offsetNum + ":" + (offsetNum + residue));
            }
        }
        return splitMap;
    }
}

然后先把我们所会用到的接口都先写好,

public interface ITaskDetailsService 
{
public List<DeviceGpsDto> selectDeviceGps(Long taskId,String deviceId);
}
@Service
public class TaskDetailsServiceImpl implements ITaskDetailsService
{

 @Override
    public List<DeviceGpsDto> selectDeviceGps(Long taskId, String deviceId) {

        ExecutorService executorService = new ThreadPoolExecutor(corePoolSize, maximumPoolSize, keepAliveTime, TimeUnit.SECONDS, new ArrayBlockingQueue<>(10));
        //获取总记录条数
        int count = deviceGpsMapper.getCount(taskId, deviceId);
        System.out.println("count"+count);
        Map<String, String> splitMap = SplitUtil.splitMap(count, corePoolSize);

        List<Callable<List>> tasks = new ArrayList<>();
        for (int i = 1; i <= corePoolSize; i++) {
            String[] split = splitMap.get(String.valueOf(i)).split(":");
            // 查询结果的索引值
            int index = Integer.parseInt(split[0]);
            // 查询的数量
            int num = Integer.parseInt(split[1]);

            //获得结果
            Callable<List> res = new ThreadQuery(() -> deviceGpsMapper.selectBackGps(taskId, deviceId, index, num));
            tasks.add(res);
        }

        List<DeviceGpsDto> result  = new ArrayList<>();

        try {
            // Future获取结果
            List<Future<List>> futures = executorService.invokeAll(tasks);
            if (futures != null && futures.size() > 0) {
                // 迭代结果
                for (Future<List> future : futures) {
                    result.addAll(future.get());
                }
            }
        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (ExecutionException e) {
            e.printStackTrace();
        } finally {
            // 关闭线程池
            executorService.shutdown();
            while (true){
                if (executorService.isTerminated()){
                    System.out.println("任务已完成");
                    break;
                }
            }
        }

        for (int i1 = 0; i1 < result.size(); i1++) {
            result.get(i1).setTime((double) (i1*5));
        }
        return result;
    }

}

模板接口

package com.htzn.pm.truck.service;

public interface CommonService <T>{
    T template();
}

线程接口类

package com.htzn.pm.truck.thread;


import com.htzn.pm.truck.service.CommonService;

import java.util.List;
import java.util.concurrent.Callable;

public class ThreadQuery implements Callable<List> {

    private CommonService baseService;

    public ThreadQuery() {}

    public ThreadQuery(CommonService baseService) {
        this.baseService = baseService;
    }

    @Override
    public List call() throws Exception {
        // 查询数据库
        return (List)  baseService.template();
    }

    public CommonService getBaseService() {
        return baseService;
    }

    public void setBaseService(CommonService baseService) {
        this.baseService = baseService;
    }
}

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
继“Java开发微信朋友圈PC版系统-架构1.0”之后,debug这段时间日撸夜撸,终于赶在春节放假前给诸位带来了这一系统的架构2.0版本,特此分享给诸位进行学习,以掌握、巩固更多的技术栈以及项目和产品开发经验,同时也为即将到来的金三银四跳槽季做准备! 言归正传,下面仍然以问答的方式介绍下本门课程的相关内容! (1)问题一:这是一门什么样的课程? 很明显,本门课程是建立在架构1.0,即 第1门课程 的基础上发布的,包含了架构1.0的内容,即它仍然是一门项目、产品实战课,基于Spring Boot2.X + 分布式中间件开发的一款类似“新浪微博”、“QQ空间”、“微信朋友圈”PC版的互联网社交软件,包含完整的门户网前端 以及 后台系统管理端,可以说是一套相当完整的系统! (2)问题二:架构2.0融入了哪些新技术以及各自有什么作用? 本课程对应着系统架构2.0,即第2阶段,主要目标:基于架构1.0,优化系统的整体性能,实现一个真正的互联网社交产品;其中,可以学习到的技术干货非常多,包括:系统架构设计、Spring Boot2.X、缓存Redis、多线程并发编程、消息中间件RabbitMQ、全文搜索引擎Elastic Search、前后端消息实时通知WebSocket、分布式任务调度中间件Elastic Job、Http Restful编程、Http通信OKHttp3、分布式全局唯一ID、雪花算法SnowFlake、注册中心ZooKeeper、Shiro+Redis 集群Session共享、敏感词自动过滤、Java8 等等; A.  基于Elastic Search实现首页列表数据的初始化加载、首页全文检索;B.  基于缓存Redis缓存首页朋友圈“是否已点赞、收藏、关注、评论、转发”等统计数据;整合Shiro实现集群部署模式下Session共享;C.  多线程并发编程并发处理系统产生的废弃图片、文件数据;D.  基于Elastic Job切片作业调度分布式多线程清理系统产生的废弃图片;E.  基于RabbitMQ解耦同步调用的服务模块,实现服务模块之间异步通信;F.  基于WebSocket实现系统后端 与 首页前端 当前登录用户实时消息通知;G.  基于OKHttp3、Restful风格的Rest API实现ES文档、分词数据存储与检索;H.  分布式全局唯一ID 雪花算法SnowFlake实现朋友圈图片的唯一命名;I.  ZooKeeper充当Elastic Job创建的系统作业的注册中心;J.  为塑造一个健康的网络环境,对用户发的朋友圈、评论、回复内容进行敏感词过滤;K.  大量优雅的Java8  Lambda编程、Stream编程;  (3)问题三:系统运行起来有效果图看吗?

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值