【性能优化】记录一次利用Spring Data Redis操作Pipelined,启动时加载大数据量到缓存的方法。

项目场景:

优化:利用redis优化:

项目启动时,需要初始化相关角色的数据权限资源信息到内存中,避免重复DB查询,利用Redis优化查询速度。


问题描述

初始化使用Spring Data Redis,直接操作缓存数据到Redis服务端,由于数据量较大,内存和CPU压力抖动严重。进一步优化。

	// 案例代码
		final StopWatch stopWatch = new StopWatch ();
		stopWatch.start ();
		final int size = roleData.size ();
		log.info ("【数据权限上下文初始化】 {} 开始", size);
		
		if (CollUtil.isNotEmpty (roleData)) {
			for (RoleDataScopeDTO roleDatum : roleData) {
				Optional.ofNullable (roleDatum).ifPresent (dto -> {
					final String key = dto.getRoleId ();
					final Set <DataScopeDTO> values = dto.getDataScopes ();
					log.info ("【初始化任务】 Role {}, RoleDatum: {} 条", key, values.size ());
					redisService.setCacheSet (key, values);
				});
				
			}
		}
		log.info ("【数据权限上下文初始化】 {} 结束", size);
		stopWatch.stop ();
		log.info ("【数据权限上下文初始化】耗时 :{} /s", stopWatch.getTotalTimeSeconds ());

执行结果: 直接卡顿,编辑器卡顿,CPU和内存飙升。。。


原因分析:

CPU和内存的消耗比较大,对资源利用不太友好,系统稳定性有影响。
也会导致连接耗时较长,容易触发最长连接时间,导致通道断开。


解决方案:

  1. 多线程拆分大数据量,并发插入。
  2. 使用Pipelined通道,批量插入,减少网络I/O。

方案一: 多线程失败,代码不写了。。

方案二: 踩坑一路,成功。

		final StopWatch stopWatch = new StopWatch ();
		stopWatch.start ();
		redisService = Optionals.ofNullableOrDefault (RoleDataScopeContextHolder.redisService, SpringTools.getBean (RedisService.class));
		RedisTemplate redisTemplate = redisService.getStringRedisTemplate ();
		// 提前获取序列化方式,注意序列化和反序列化要匹配哦
		final RedisSerializer keySerializer = redisTemplate.getKeySerializer ();
		final RedisSerializer valueSerializer = redisTemplate.getValueSerializer ();
		// 开启通道
		redisTemplate.executePipelined ((RedisCallback <String>) connection -> {
			final int size = roleData.size ();
			log.info ("【数据权限上下文初始化】 {} 个开始", size);
			if (CollUtil.isNotEmpty (roleData)) {
				for (RoleDataScopeDTO roleDatum : roleData) {
					Set <RoleDataScopeDTO.DataScopeDTO> dataScopes = roleDatum.getDataScopes ();
					log.info ("【初始化任务】 Role {}, Ids: {} 条", roleDatum.getRoleId (), dataScopes.size ());
					byte[] key = keySerializer.serialize (CacheConstant.ROLE_DATA_SCOPE + roleDatum.getRoleId ());
					LinkedList <byte[]> values = new LinkedList <> ();
					for (RoleDataScopeDTO.DataScopeDTO dataScope : dataScopes) {
						values.add (valueSerializer.serialize (JSONUtil.toJsonStr (dataScope)));
					}
					// 注意:放在循环外部
					connection.rPush (key, values.toArray (new byte[dataScopes.size ()][]));
				}
			}
			log.info ("【数据权限上下文初始化】 {} 个结束", size);
			return null;
		});
		stopWatch.stop ();
		log.info ("【数据权限上下文初始化】耗时 :{} /s", stopWatch.getTotalTimeSeconds ());

优化后: 10W/S插入速度,根据本人业务场景测试得到,可做参开依据。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在项目启动时,可以使用以下步骤将热点数据从数据库缓存Redis: 1. 首先,确保已将Redis客户端库添加到项目中,以便能够与Redis进行交互。 2. 在项目的启动代码或启动脚本中,建立与Redis的连接,并获取一个Redis客户端实例。 3. 查询数据库,获取需要缓存的热点数据。 4. 遍历查询结果,将每条数据存储到Redis中。可以使用Redis的Hash、List、Set等数据结构根据数据类型进行存储。例如,使用Hash可以将每条数据的唯一标识作为key,将数据字段作为field和value进行存储。 5. 关闭与数据库的连接。 下面是一个简单的示例代码(使用Python和redis-py库)来说明这个过程: ```python import redis import pymysql # 连接到Redis redis_client = redis.Redis(host='localhost', port=6379) # 连接到数据库 db_conn = pymysql.connect(host='localhost', user='username', password='password', db='database_name') cursor = db_conn.cursor() # 查询需要缓存的热点数据 sql = "SELECT * FROM table_name WHERE condition" cursor.execute(sql) results = cursor.fetchall() # 遍历查询结果,将每条数据存储到Redis中 for row in results: key = row['id'] # 根据数据结构确定唯一标识 value = row['field'] # 根据数据结构确定需要缓存的字段 redis_client.hset('hot_data', key, value) # 关闭数据库连接 cursor.close() db_conn.close() ``` 请根据你的项目需求和具体的编程语言/框架来进行相应的调整和实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值