运用EasyExcel
导入依赖
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>easyexcel</artifactId>
<version>2.2.3</version>
</dependency>
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>1.2.61</version>
</dependency>
xlsx文件样式
后端(一定要Application方式启动,通过controller,不能main,否则空指针)
实体类
(引用了lombok)
Controller中
@RestController
@RequestMapping("/study")
public class StudyController {
@RequestMapping("/read")
public void read(){
EasyExcel.read("F://study.xlsx", Study.class, new DemoDataListener()).sheet().doRead();
}
}
DemoDataListener.class里面的内容
package com.wh.problem.mysql;
import com.alibaba.excel.context.AnalysisContext;
import com.alibaba.excel.event.AnalysisEventListener;
import com.alibaba.fastjson.JSON;
import com.wh.problem.entity.Study;
import com.wh.problem.service.StudyService;
import com.wh.problem.service.UserService;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Component;
import org.springframework.stereotype.Repository;
import javax.annotation.PostConstruct;
import java.util.ArrayList;
import java.util.List;
@Component
public class DemoDataListener extends AnalysisEventListener<Study> {
private static final Logger LOGGER = LoggerFactory.getLogger(DemoDataListener.class);
/**
* 每隔5条存储数据库,实际使用中可以3000条,然后清理list ,方便内存回收
*/
private static final int BATCH_COUNT = 500;
List<Study> list = new ArrayList<Study>();
/**
* 假设这个是一个DAO,当然有业务逻辑这个也可以是一个service。当然如果不用存储这个对象没用。
*/
@Autowired
private StudyService studyService;
private static DemoDataListener demoDataListener;
@PostConstruct
public void init() {
demoDataListener = this;
demoDataListener.studyService = this.studyService;
}
public DemoDataListener() {
// 这里是demo,所以随便new一个。实际使用如果到了spring,请使用下面的有参构造函数
}
/**
* 这个每一条数据解析都会来调用
*
* @param data
* @param context
*/
@Override
public void invoke(Study data, AnalysisContext context) {
LOGGER.info("解析到一条数据:{}", JSON.toJSONString(data));
list.add(data);
// 达到BATCH_COUNT了,需要去存储一次数据库,防止数据几万条数据在内存,容易OOM
if (list.size() >= BATCH_COUNT) {
saveData();
// 存储完成清理 list
list.clear();
}
}
/**
* 所有数据解析完成了 都会来调用
*
* @param context
*/
@Override
public void doAfterAllAnalysed(AnalysisContext context) {
// 这里也要保存数据,确保最后遗留的数据也存储到数据库
saveData();
LOGGER.info("所有数据解析完成!");
}
/**
* 加上存储数据库
*/
private void saveData() {
LOGGER.info("{}条数据,开始存储数据库!", list.size());
demoDataListener.studyService.insertByBatch(list);
LOGGER.info("存储数据库成功!");
}
}
一定要用@Compnent把DemoDataListener 注册为组件,因为这是其他类通过@Atuowired注入Service,并且还需要这样设置
@Autowired
private StudyService studyService;
//静态初始化当前类
private static DemoDataListener demoDataListener;
@PostConstruct
public void init() {
demoDataListener = this;
demoDataListener.studyService = this.studyService;
}
......
//需要用的service里面的方法时这样调用
demoDataListener.studyService.insertByBatch(list);
.......
否则就会报空指针
对应mapper.xml内容
<insert id="insertByBatch">
insert into study(name,age) values
<trim prefix="" prefixOverrides=",">
<foreach collection="list" item="study" separator=",">
(#{study.name},#{study.age})
</foreach>
</trim>
</insert>