easyexcel导出百万级数据_百万级别数据Excel导出优化

weixin_39850981 2020-11-29 21:08:52 

 938 正在上传…重新上传取消​ 收藏 5

文章标签: easyexcel导出百万级数据 excel一次滚动太多 excel翻页不连续 java导出数据到excel模板 java导出数据到excel表格 java导出超过65535

26ba89ca71a5b653e4d994af3755f506.png

这篇文章不是标题党,下文会通过一个仿真例子分析如何优化百万级别数据Excel导出。

笔者负责维护的一个数据查询和数据导出服务是一个相对远古的单点应用,在上一次云迁移之后扩展为双节点部署,但是发现了服务经常因为大数据量的数据导出频繁Full GC,导致应用假死无法响应外部的请求。因为某些原因,该服务只能够「分配2GB的最大堆内存」,下面的优化都是以这个堆内存极限为前提。通过查看服务配置、日志和APM定位到两个问题:

  1. 启动脚本中添加了CMS参数,采用了CMS收集器,该收集算法对内存的敏感度比较高,大批量数据导出容易瞬间打满老年代导致Full GC频繁发生。
  2. 数据导出的时候采用了一次性把目标数据全部查询出来再写到流中的方式,大量被查询的对象驻留在堆内存中,直接打满整个堆。

对于问题1咨询过身边的大牛朋友,直接把所有CMS相关的所有参数去掉,由于生产环境使用了JDK1.8,相当于直接使用默认的GC收集器参数-XX:+UseParallelGC,也就是Parallel Scavenge + Parallel Old的组合然后重启服务。观察APM工具发现Full GC的频率是有所下降,但是一旦某个时刻导出的数据量十分巨大(例如查询的结果超过一百万个对象,超越可用的最大堆内存),还是会陷入无尽的Full GC,也就是修改了JVM参数只起到了治标不治本的作用。所以下文会针对这个问题(也就是问题2),通过一个仿真案例来分析一下如何进行优化。

一些基本原理

如果使用Java(或者说依赖于JVM的语言)开发数据导出的模块,下面的伪代码是通用的:

 
  1. 数据导出方法(参数,输出流[OutputStream]){

  2. 1. 通过参数查询需要导出的结果集

  3. 2. 把结果集序列化为字节序列

  4. 3. 通过输出流写入结果集字节序列

  5. 4. 关闭输出流

  6. }

一个例子如下:

 
  1. @Data

  2. public static class Parameter{

  3. private OffsetDateTime paymentDateTimeStart;

  4. private OffsetDateTime paymentDateTimeEnd;

  5. }

  6. public void export(Parameter parameter, OutputStream os) throws IOException {

  7. List<OrderDTO> result =

  8. orderDao.query(parameter.getPaymentDateTimeStart(), parameter.getPaymentDateTimeEnd()).stream()

  9. .map(order -> {

  10. OrderDTO dto = new OrderDTO();

  11. ......

  12. return dto;

  13. }).collect(Collectors.toList());

  14. byte[] bytes = toBytes(result);

  15. os.write(bytes);

  16. os.close();

  17. }

针对不同的OutputStream实现,最终可以把数据导出到不同类型的目标中,例如对于FileOutputStream而言相当于把数据导出到文件中,而对于SocketOutputStream而言相当于把数据导出到网络流中(客户端可以读取该流实现文件下载)。目前B端应用比较常见的文件导出都是使用后一种实现,基本的交互流程如下:

f6a28954f1f97dd887fdcbd3992156c7.png

为了节省服务器的内存,这里的返回数据和数据传输部分可以设计为分段处理,也就是查询的时候考虑把查询全量的结果这个思路改变为每次只查询部分数据,直到得到全量的数据,每批次查询的结果数据都写进去OutputStream中。

这里以MySQL为例,可以使用类似于分页查询的思路,但是鉴于LIMIT offset,size的效率太低,结合之前的一些实践,采用了一种「改良的"滚动翻页"的实现方式」(这个方式是前公司的某个架构小组给出来的思路,后面广泛应用于各种批量查询、数据同步、数据导出以及数据迁移等等场景,这个思路肯定不是首创的,但是实用性十分高),注意这个方案要求表中包含一个有自增趋势的主键,单条查询SQL如下:

SELECT * FROM tableX WHERE id > #{lastBatchMaxId} [其他条件] ORDER BY id [ASC|DESC](这里一般选用ASC排序) LIMIT ${size}

把上面的SQL放进去前一个例子中,并且假设订单表使用了自增长整型主键id,那么上面的代码改造如下:

 
  1. public void export(Parameter parameter, OutputStream os) throws IOException {

  2. long lastBatchMaxId = 0L;

  3. for (;;){

  4. List<Order> orders = orderDao.query([SELECT * FROM t_order WHERE id > #{lastBatchMaxId}

  5. AND payment_time >= #{parameter.paymentDateTimeStart} AND payment_time <= #{parameter.paymentDateTimeEnd} ORDER BY id ASC LIMIT ${LIMIT}]);

  6. if (orders.isEmpty()){

  7. break;

  8. }

  9. List<OrderDTO> result =

  10. orderDao.query([SELECT * FROM t_order]).stream()

  11. .map(order -> {

  12. OrderDTO dto = new OrderDTO();

  13. ......

  14. return dto;

  15. }).collect(Collectors.toList());

  16. byte[] bytes = toBytes(result);

  17. os.write(bytes);

  18. os.flush();

  19. lastBatchMaxId = orders.stream().map(Order::getId).max(Long::compareTo).orElse(Long.MAX_VALUE);

  20. }

  21. os.close();

  22. }

「上面这个示例就是百万级别数据Excel导出优化的核心思路」。查询和写入输出流的逻辑编写在一个死循环中,因为查询结果是使用了自增主键排序的,而属性lastBatchMaxId则存放了本次查询结果集中的最大id,同时它也是下一批查询的起始id,这样相当于基于id和查询条件向前滚动,直到查询条件不命中任何记录返回了空列表就会退出死循环。而limit字段则用于控制每批查询的记录数,可以按照应用实际分配的内存和每批次查询的数据量考量设计一个合理的值,这样就能让单个请求下常驻内存的对象数量控制在limit个从而使应用的内存使用更加可控,避免因为并发导出导致堆内存瞬间被打满。


这里的滚动翻页方案远比LIMIT offset,size效率高,因为此方案每次查询都是最终的结果集,而一般的分页方案使用的LIMIT offset,size需要先查询,后截断。

仿真案例

某个应用提供了查询订单和导出记录的功能,表设计如下:

 
  1. DROP TABLE IF EXISTS `t_order`;

  2. CREATE TABLE `t_order`

  3. (

  4. `id` BIGINT UNSIGNED NOT NULL AUTO_INCREMENT PRIMARY KEY COMMENT '主键',

  5. `creator` VARCHAR(16) NOT NULL DEFAULT 'admin' COMMENT '创建人',

  6. `editor` VARCHAR(16) NOT NULL DEFAULT 'admin' COMMENT '修改人',

  7. `create_time` DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',

  8. `edit_time` DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '修改时间',

  9. `version` BIGINT NOT NULL DEFAULT 1 COMMENT '版本号',

  10. `deleted` TINYINT NOT NULL DEFAULT 0 COMMENT '软删除标识',

  11. `order_id` VARCHAR(32) NOT NULL COMMENT '订单ID',

  12. `amount` DECIMAL(10, 2) NOT NULL DEFAULT 0 COMMENT '订单金额',

  13. `payment_time` DATETIME NOT NULL DEFAULT '1970-01-01 00:00:00' COMMENT '支付时间',

  14. `order_status` TINYINT NOT NULL DEFAULT 0 COMMENT '订单状态,0:处理中,1:支付成功,2:支付失败',

  15. UNIQUE uniq_order_id (`order_id`),

  16. INDEX idx_payment_time (`payment_time`)

  17. ) COMMENT '订单表';

现在要基于支付时间段导出一批订单数据,先基于此需求编写一个简单的SpringBoot应用,这里的Excel处理工具选用Alibaba出品的EsayExcel,主要依赖如下:

 
  1. <dependency>

  2. <groupId>org.springframework.boot</groupId>

  3. <artifactId>spring-boot-starter-web</artifactId>

  4. </dependency>

  5. <dependency>

  6. <groupId>org.springframework.boot</groupId>

  7. <artifactId>spring-boot-starter-jdbc</artifactId>

  8. </dependency>

  9. <dependency>

  10. <groupId>mysql</groupId>

  11. <artifactId>mysql-connector-java</artifactId>

  12. <version>8.0.18</version>

  13. </dependency>

  14. <dependency>

  15. <groupId>com.alibaba</groupId>

  16. <artifactId>easyexcel</artifactId>

  17. <version>2.2.6</version>

  18. </dependency>

模拟写入200W条数据,生成数据的测试类如下:

 
  1. public class OrderServiceTest {

  2. private static final Random OR = new Random();

  3. private static final Random AR = new Random();

  4. private static final Random DR = new Random();

  5. @Test

  6. public void testGenerateTestOrderSql() throws Exception {

  7. HikariConfig config = new HikariConfig();

  8. config.setUsername("root");

  9. config.setPassword("root");

  10. config.setJdbcUrl("jdbc:mysql://localhost:3306/local?serverTimezone=Asia/Shanghai&useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull&useSSL=false");

  11. config.setDriverClassName(Driver.class.getName());

  12. HikariDataSource hikariDataSource = new HikariDataSource(config);

  13. JdbcTemplate jdbcTemplate = new JdbcTemplate(hikariDataSource);

  14. for (int d = 0; d < 100; d++) {

  15. String item = "('%s','%d','2020-07-%d 00:00:00','%d')";

  16. StringBuilder sql = new StringBuilder("INSERT INTO t_order(order_id,amount,payment_time,order_status) VALUES ");

  17. for (int i = 0; i < 20_000; i++) {

  18. sql.append(String.format(item, UUID.randomUUID().toString().replace("-", ""),

  19. AR.nextInt(100000) + 1, DR.nextInt(31) + 1, OR.nextInt(3))).append(",");

  20. }

  21. jdbcTemplate.update(sql.substring(0, sql.lastIndexOf(",")));

  22. }

  23. hikariDataSource.close();

  24. }

  25. }

基于JdbcTemplate编写DAO类OrderDao:

 
  1. @RequiredArgsConstructor

  2. @Repository

  3. public class OrderDao {

  4. private final JdbcTemplate jdbcTemplate;

  5. public List<Order> queryByScrollingPagination(long lastBatchMaxId,

  6. int limit,

  7. LocalDateTime paymentDateTimeStart,

  8. LocalDateTime paymentDateTimeEnd) {

  9. return jdbcTemplate.query("SELECT * FROM t_order WHERE id > ? AND payment_time >= ? AND payment_time <= ? " +

  10. "ORDER BY id ASC LIMIT ?",

  11. p -> {

  12. p.setLong(1, lastBatchMaxId);

  13. p.setTimestamp(2, Timestamp.valueOf(paymentDateTimeStart));

  14. p.setTimestamp(3, Timestamp.valueOf(paymentDateTimeEnd));

  15. p.setInt(4, limit);

  16. },

  17. rs -> {

  18. List<Order> orders = new ArrayList<>();

  19. while (rs.next()) {

  20. Order order = new Order();

  21. order.setId(rs.getLong("id"));

  22. order.setCreator(rs.getString("creator"));

  23. order.setEditor(rs.getString("editor"));

  24. order.setCreateTime(OffsetDateTime.ofInstant(rs.getTimestamp("create_time").toInstant(), ZoneId.systemDefault()));

  25. order.setEditTime(OffsetDateTime.ofInstant(rs.getTimestamp("edit_time").toInstant(), ZoneId.systemDefault()));

  26. order.setVersion(rs.getLong("version"));

  27. order.setDeleted(rs.getInt("deleted"));

  28. order.setOrderId(rs.getString("order_id"));

  29. order.setAmount(rs.getBigDecimal("amount"));

  30. order.setPaymentTime(OffsetDateTime.ofInstant(rs.getTimestamp("payment_time").toInstant(), ZoneId.systemDefault()));

  31. order.setOrderStatus(rs.getInt("order_status"));

  32. orders.add(order);

  33. }

  34. return orders;

  35. });

  36. }

  37. }

编写服务类OrderService:

 
  1. @Data

  2. public class OrderDTO {

  3. @ExcelIgnore

  4. private Long id;

  5. @ExcelProperty(value = "订单号", order = 1)

  6. private String orderId;

  7. @ExcelProperty(value = "金额", order = 2)

  8. private BigDecimal amount;

  9. @ExcelProperty(value = "支付时间", order = 3)

  10. private String paymentTime;

  11. @ExcelProperty(value = "订单状态", order = 4)

  12. private String orderStatus;

  13. }

  14. @Service

  15. @RequiredArgsConstructor

  16. public class OrderService {

  17. private final OrderDao orderDao;

  18. private static final DateTimeFormatter F = DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss");

  19. public List<OrderDTO> queryByScrollingPagination(String paymentDateTimeStart,

  20. String paymentDateTimeEnd,

  21. long lastBatchMaxId,

  22. int limit) {

  23. LocalDateTime start = LocalDateTime.parse(paymentDateTimeStart, F);

  24. LocalDateTime end = LocalDateTime.parse(paymentDateTimeEnd, F);

  25. return orderDao.queryByScrollingPagination(lastBatchMaxId, limit, start, end).stream().map(order -> {

  26. OrderDTO dto = new OrderDTO();

  27. dto.setId(order.getId());

  28. dto.setAmount(order.getAmount());

  29. dto.setOrderId(order.getOrderId());

  30. dto.setPaymentTime(order.getPaymentTime().format(F));

  31. dto.setOrderStatus(OrderStatus.fromStatus(order.getOrderStatus()).getDescription());

  32. return dto;

  33. }).collect(Collectors.toList());

  34. }

  35. }

最后编写控制器OrderController:

 
  1. @RequiredArgsConstructor

  2. @RestController

  3. @RequestMapping(path = "/order")

  4. public class OrderController {

  5. private final OrderService orderService;

  6. @GetMapping(path = "/export")

  7. public void export(@RequestParam(name = "paymentDateTimeStart") String paymentDateTimeStart,

  8. @RequestParam(name = "paymentDateTimeEnd") String paymentDateTimeEnd,

  9. HttpServletResponse response) throws Exception {

  10. String fileName = URLEncoder.encode(String.format("%s-(%s).xlsx", "订单支付数据", UUID.randomUUID().toString()),

  11. StandardCharsets.UTF_8.toString());

  12. response.setContentType("application/force-download");

  13. response.setHeader("Content-Disposition", "attachment;filename=" + fileName);

  14. ExcelWriter writer = new ExcelWriterBuilder()

  15. .autoCloseStream(true)

  16. .excelType(ExcelTypeEnum.XLSX)

  17. .file(response.getOutputStream())

  18. .head(OrderDTO.class)

  19. .build();

  20. // xlsx文件上上限是104W行左右,这里如果超过104W需要分Sheet

  21. WriteSheet writeSheet = new WriteSheet();

  22. writeSheet.setSheetName("target");

  23. long lastBatchMaxId = 0L;

  24. int limit = 500;

  25. for (; ; ) {

  26. List<OrderDTO> list = orderService.queryByScrollingPagination(paymentDateTimeStart, paymentDateTimeEnd, lastBatchMaxId, limit);

  27. if (list.isEmpty()) {

  28. writer.finish();

  29. break;

  30. } else {

  31. lastBatchMaxId = list.stream().map(OrderDTO::getId).max(Long::compareTo).orElse(Long.MAX_VALUE);

  32. writer.write(list, writeSheet);

  33. }

  34. }

  35. }

  36. }

这里为了方便,把一部分业务逻辑代码放在控制器层编写,实际上这是不规范的编码习惯,这一点不要效仿。添加配置和启动类之后,通过请求http://localhost:10086/order/export?paymentDateTimeStart=2020-07-01 00:00:00&paymentDateTimeEnd=2020-07-16 00:00:00测试导出接口,某次导出操作后台输出日志如下:

导出数据耗时:29733 ms,start:2020-07-01 00:00:00,end:2020-07-16 00:00:00

导出成功后得到一个文件(连同表头一共1031540行):

2bec9ac88b511c429cb07cb846b3a012.png

小结

这篇文章详细地分析大数据量导出的性能优化,最要侧重于内存优化。该方案实现了在尽可能少占用内存的前提下,在效率可以接受的范围内进行大批量的数据导出。这是一个可复用的方案,类似的设计思路也可以应用于其他领域或者场景,不局限于数据导出。

文中demo项目的仓库地址是:

  • Github:https://github.com/zjcscut/spring-boot-guide/tree/master/ch10086-excel-export

(本文完 c-2-d e-a-20200820 20:27 PM)

相关资源:easyExcel实现大数据导出_easyexcel导出百万级数据,easyexcel百万...

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
导出百万级数据,建议使用EasyExcel的SXSSFWorkbook方式,它是一种基于XSSF的特殊Workbook,使用这种方式可以让内存占用更小。具体实现方法如下: 1. 在导出方法中创建SXSSFWorkbook对象。 2. 设置Excel的表头和样式等信息。 3. 循环遍历数据,使用Sheet.createRow()创建行对象,使用row.createCell()创建单元格对象,将数据填充到单元格中。 4. 每写入一定数量的数据,使用sheet.flushRows()方法将数据刷入磁盘,避免内存占用过高。 5. 最后使用response输出Excel文件。 示例代码如下: ```java public void exportData(HttpServletResponse response) { SXSSFWorkbook workbook = new SXSSFWorkbook(100); // 创建SXSSFWorkbook对象,指定内存缓存大小为100条数据 Sheet sheet = workbook.createSheet("数据表"); // 创建Sheet对象 // 设置表头样式 CellStyle headStyle = workbook.createCellStyle(); Font headFont = workbook.createFont(); headFont.setBold(true); headStyle.setFont(headFont); // 设置表头 Row headRow = sheet.createRow(0); Cell cell1 = headRow.createCell(0); cell1.setCellValue("列1"); cell1.setCellStyle(headStyle); Cell cell2 = headRow.createCell(1); cell2.setCellValue("列2"); cell2.setCellStyle(headStyle); // 循环遍历数据 List<Data> dataList = getDataList(); // 获取数据 int rowNum = 1; for (Data data : dataList) { Row row = sheet.createRow(rowNum++); row.createCell(0).setCellValue(data.getCol1()); row.createCell(1).setCellValue(data.getCol2()); if (rowNum % 100 == 0) { // 每写入100条数据,刷入磁盘 ((SXSSFSheet) sheet).flushRows(); } } // 输出Excel文件 try (OutputStream out = response.getOutputStream()) { response.setHeader("Content-Disposition", "attachment;filename=" + URLEncoder.encode("数据表.xlsx", "UTF-8")); workbook.write(out); } catch (IOException e) { e.printStackTrace(); } } ``` 注意:SXSSFWorkbook的缓存大小应根据实际情况设置,如果设置过大,会导致内存占用过高;如果设置过小,会导致频繁地刷入磁盘,影响导出速度。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值