redis大Key多Key分拆方案

背景

业务场景中经常会有各种大key多key的情况, 比如:
1: 单个简单的key存储的value很大
2: hash, set,zset,list 中存储过多的元素(以万为单位)
3:一个集群存储了上亿的key,Key 本身过多也带来了更多的空间占用

由于redis是单线程运行的,如果一次操作的value很大会对整个redis的响应时间造成负面影响,所以,业务上能拆则拆,下面举几个典型的分拆方案。

单个简单的key存储的value很大

该对象需要每次都整存整取

可以尝试将对象分拆成几个key-value, 使用multiGet获取值,这样分拆的意义在于分拆单次操作的压力,将操作压力平摊到多个redis实例中,降低对单个redis的IO影响。

该对象每次只需要存取部分数据

可以像第一种做法一样,分拆成几个key-value, 也可以将这个存储在一个hash中,每个field代表一个具体的属性,使用hget,hmget来获取部分的value,使用hset,hmset来更新部分属性 。

hash、 set、zset、list 中存储过多的元素

类似于场景一种的第一个做法,可以将这些元素分拆。
以hash为例,原先的正常存取流程是 hget(hashKey, field) ; hset(hashKey, field, value)
现在,固定一个桶的数量,比如 10000, 每次存取的时候,先在本地计算field的hash值,模除 10000, 确定了该field落在哪个key上。
newHashKey = hashKey + ( hash(field) % 10000); hset (newHashKey, field, value) ; hget(newHashKey, field)
set, zset, list 也可以类似上述做法
但有些不适合的场景,比如,要保证 lpop 的数据的确是最早push到list中去的,这个就需要一些附加的属性,或者是在 key的拼接上做一些工作(比如list按照时间来分拆)。

一个集群存储了上亿的key

如果key的个数过多会带来更多的内存空间占用,
1.key本身的占用
2.集群模式中,服务端需要建立一些slot2key的映射关系,这其中的指针占用在key多的情况下也是浪费巨大空间
这两个方面在key个数上亿的时候消耗内存十分明显(Redis 3.2及以下版本均存在这个问题,4.0有优化);

所以减少key的个数可以减少内存消耗,可以参考的方案是转Hash结构存储,即原先是直接使用Redis String 的结构存储,现在将多个key存储在一个Hash结构中,具体场景参考如下:

key 本身就有很强的相关性

比如多个key 代表一个对象,每个key是对象的一个属性,这种可直接按照特定对象的特征来设置一个新Key——Hash结构, 原先的key则作为这个新Hash 的field
举例说明:
原先存储的三个key ,
user.zhangsan-id = 123; user.zhangsan-age = 18; user.zhangsan-country = china;
这三个key本身就具有很强的相关特性,转成Hash存储就像这样
key = user.zhangsan
field:id = 123; field:age = 18; field:country = china;
即redis中存储的是一个key :user.zhangsan, 他有三个 field, 每个field + key 就对应原先的一个key。

key 本身没有相关性

预估一下总量,采取和上述第二种场景类似的方案,预分一个固定的桶数量
比如现在预估key 的总数为 2亿,按照一个hash存储 100个field来算,需要 2亿 / 100 = 200W 个桶 (200W 个key占用的空间很少,2亿可能有将近 20G )
原先比如有三个key : user.123456789 , user.987654321, user.678912345
现在按照200W 固定桶分就是先计算出桶的序号 hash(123456789) % 200W , 这里最好保证这个 hash算法的值是个正数,否则需要调整下模除的规则;
这样算出三个key 的桶分别是 1 , 2, 2。 所以存储的时候调用API hset(key, field, value),读取的时候使用 hget(key, field)
key1 : hset ( user.1, 123456789 , value ) hget( user.1, 123456789)
key2: hset ( user.2, 987654321, value ) hget(user.2, 987654321)
key3: hset ( user.2, 678912345, value) hget(user.2, 678912345)
注意两个地方:1.hash 取模对负数的处理; 2.预分桶的时候, 一个hash 中存储的值最好不要超过 512 ,100 左右较为合适

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Redis的大key拆分是指将Redis的大数据键分解成多个小的数据键来存储。这种做法的目的是为了在处理大数据键时降低内存占用和提高性能。 在Redis,一个大数据键可能会占用大量的内存空间,并且影响到操作的效率。因此,拆分大key可以帮助我们充分利用Redis的内存,并且优化查询和操作的速度。 拆分大key有以下几个步骤: 1. 查找大key:首先,我们需要确定哪些键是大key。可以通过Redis命令SCAN等遍历所有的键,然后对每个键进行内存占用的估算,找到占用较多内存的大key。 2. 拆分策略:确定拆分大key的方式。根据业务需求和键的特点,可以选择按照某个字段进行拆分,或者使用哈希函数将大key散列成多个小的数据键。 3. 创建小key:根据拆分策略,生成新的小key。可以使用Redis的命令如HSET、SADD等创建新的小key,并将原始大key的数据逐个迁移到新的小key。 4. 修改业务逻辑:针对之前使用大key的业务逻辑,需要修改为使用新的小key。例如,如果之前是使用大key进行排序或者过滤,现在需要将对应的小key进行排序或者过滤。 5. 清理大key:在数据迁移完成后,可以删除原始的大key,释放相应的内存空间。 需要注意的是,拆分大key可能会增加代码的复杂性,需要重新设计和修改相关的业务逻辑。在切分大key时,还需要考虑到数据一致性和并发访问的问题。因此,在进行大key拆分之前,需要对业务需求和数据特点进行充分的分析和评估。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值