此文章纯属个人代码记录片段不喜勿喷
网上搜了好多发现Hibernate 批量操作都没有什么较好的解决方案,最后使用JdbcTemplate 解决的。
解决方案一(Hibernate)
批量插入代码:
@Override
public Integer insertBatchApiCase(List<ApiCase> list) {
Session session = wyqWCWWriteHibernateTemplate.getSessionFactory().openSession();
Transaction transaction = session.beginTransaction();
for (int i = 0; i < list.size(); i++) {
ApiCase apiCase = list.get(i);
apiCase.setId((Integer) session.save(apiCase));
if (i % 100 == 0) {
session.flush();
session.clear();
}
}
transaction.commit();
return list.size();
}
最终Hibernate 执行的时候还会是一条一条的执行的。
解决方案二(JdbcTemplate)
批量插入代码:
@Override
public Integer insertJdbcTemplateBatchCaseAnalyze(final List<CaseAnalyze> list) {
final String batch = new String(System.currentTimeMillis()+"");
String sql = "INSERT INTO case_analyze (user_id, case_category_type) VALUES (?, ?);";
writeJdbcTemplate.batchUpdate(sql, list, 500, new ParameterizedPreparedStatementSetter<CaseAnalyze>() {
@Override
public void setValues(PreparedStatement ps, CaseAnalyze argument) throws SQLException {
ps.setObject(1,argument.getUserId());
ps.setObject(2,argument.getCaseCategoryType());
}
});
return list.size();
}
private List<ApiCase> findApiCaseBatch(Integer userId,String batch){
String SQL = "SELECT * FROM api_case WHERE user_id =? AND last_update_time =? ";
return writeJdbcTemplate.query(SQL,new Object[]{userId,batch},new BeanPropertyRowMapper(ApiCase.class));
}
这个地方应该可以优化的由于开发进度紧所以大家懂得。