在日常工作中,分页数据被访问较为频繁,即使数据量并不是很大,但也较大数据库的开销,而且数据库支持的并发数并不是很多。再加分页查询通常在select和from之间带了不少子查询,遍历查找子查询过程中也会拖慢整体的数据查询。基于此,本文介绍一种基于redis缓存的分页,避免数据库查出过多的字段造成的性能下降。
算法的基本步骤可分为:
1.查数据库中的数据,仅仅查主键ID和用到排序的字段
2.根据主键ID作为缓存的key,并到缓存中获取完整的实体。
3.如果取值为空就在就到数据库中查找,找以后存到缓存中,以便下次查询时命中缓存。
4.为了保持缓存中的数据和数据库中的数据一致,在数据更新时,对缓存数据进行“双删延迟”
代码展示:
//只查id和用来排序的字段,保持查找正确
page = hteLibMediaMapper.selectHteLibMedia(page,hteLibMediaParam,qw);
List<HteLibMediaVo> selectList = page.getRecords();
List<Long> notCachList = new LinkedList<>();
selectList.forEach(it -> {
String mapKey = RedisKeyConsts.MEDIA_KEY + it.getId();
HteLibMediaVo hteLibMediaVo = (HteLibMediaVo) redisTemplate.opsForValue().get(mapKey);
//命中缓存
if (hteLibMediaVo != null){
BeanUtils.copyProperties(hteLibMediaVo , it);
}
else {
notCachList.add(it.getId());
}
});
//没有在缓存里素材库
if (CollectionUtils.isNotEmpty(notCachList)){
List<HteLibMediaVo> hteLibMediaVos = hteLibMediaMapper.selectMediaByIds(notCachList , hteLibMediaParam.getQueryUserId());
Map<String , HteLibMediaVo> mediaVoHashMap = new HashMap<>();
hteLibMediaVos.forEach(it -> {
String key = RedisKeyConsts.MEDIA_KEY + it.getId();
mediaVoHashMap.put(key , it);
});
//批量缓存
this.batchWitrWithTTL(mediaVoHashMap , 7);
selectList.forEach(it -> {
String mapKey = RedisKeyConsts.MEDIA_KEY + it.getId();
if (mediaVoHashMap.get(mapKey) != null){
BeanUtils.copyProperties(mediaVoHashMap.get(mapKey) , it);
}
});
}
数据更新时“延迟双删”,延迟双删是为了避免数据库更新数据时出现‘脏读’,或者数据库已经删除该数据时幻读等情况的出现。
//保持数据同步,延迟双删。
HteLibMediaVo hteLibMediaVo = (HteLibMediaVo) redisTemplate.opsForValue().get(mediaKey);
if (hteLibMediaVo != null){
redisTemplate.delete(mediaKey);
}
this.updateById(mediaInfo);
if (hteLibMediaVo != null){
try {
Thread.sleep(500);
}
catch (Exception e){
e.printStackTrace();
}
redisTemplate.delete(mediaKey);
}
以上算法仅仅提供参考,具体的优化还要应系统而已。