深入理解redis的sacn命令

对于熟悉redis的小伙伴大家都知道,redis是基于单线程实现的一种内存数据库。因此在执行一些O(N)命令的时候就需要非常谨慎,否则会导致redis长时间阻塞进程,进而影响其他服务的正常使用。

有时候我们需要对redis中一些符合条件的key进行处理,例如删除、遍历等操作。在redis2.8版本之前,我们可以使用keys对所有元素进行正则匹配遍历,拿到我们想要的数据,但是这个命令有致命的缺点:

  1. 没有条数限制,一次性把所有符合条件的key全部遍历出来。
  2. 该命令是遍历算法,时间复杂度为O(N)。

一旦符合条件的数据量巨大,对上百万、千万的数据量进行遍历是一定会阻塞redis进程的,因此我们需要避免在线上的机器中使用keys这种命令。

在redis的2.8版本,上线了一个scan命令,该命令既实现了满足上面提到的业务需求,又解决了阻塞redis进程的现象。相比较keys命令,scan命令的优势在于:

  1. 虽然时间复杂度也是O(n),该命令并不是一次执行完毕,而是分多次进行的。
  2. 可以限制一次命令返回的条数,每一次执行只返回部分数据,不会长时间阻塞进程。

该命令并不是完全完美的,在一定程度上可能会返回重复数据,需要客户端手动去去重。

一、redis的数据结构

Redis使用了Hash表作为底层实现,原因不外乎查找高效且实现简单。说到Hash表,很多人第一反应就是HashMap。没错,Redis底层key的存储结构就是类似于HashMap那样数组+链表的结构。其中第一维的数组大小为2^n(n>=0)。每次扩容数组长度扩大一倍。

scan命令就是对这个一维数组进行遍历。每次返回的游标值也都是这个数组的索引。limit参数表示遍历多少个数组的元素,将这些元素下挂接的符合条件的结果都返回。因为每个元素下挂接的链表大小不同,所以每次返回的结果数量也就不同。

二、scan命令的遍历顺序

127.0.0.1:6379> keys *
1) "hahaha"
2) "hehehe"
3) "zezeze"
127.0.0.1:6379> scan 0 MATCH * COUNT 1
1) "2"
2) 1) "hahaha"
127.0.0.1:6379> scan 2 MATCH * COUNT 1
1) "1"
2) 1) "hehehe"
127.0.0.1:6379> scan 1 MATCH * COUNT 1
1) "3"
2) 1) "zezeze"
127.0.0.1:6379> scan 3 MATCH * COUNT 1
1) "0"
2) (empty list or set)

我们的Redis中有3个key,我们每次只遍历一个一维数组中的元素。如上所示,SCAN命令的遍历顺序是

0->2->1->3

这个顺序看起来有些奇怪。我们把它转换成二进制就好理解一些了。

00->10->01->11

我们发现每次这个序列是高位加1的。普通二进制的加法,是从右往左相加、进位。而这个序列是从左往右相加、进位的。这一点我们在redis的源码中也得到印证。
在dict.c文件的dictScan函数中对游标进行了如下处理

v = rev(v);
v++;
v = rev(v);

意思是,将游标倒置,加一后,再倒置,也就是我们所说的“高位加1”的操作。

这里大家可能会有疑问了,为什么要使用这样的顺序进行遍历,而不是用正常的0、1、2……这样的顺序呢,这是因为需要考虑遍历时发生字典扩容与缩容的情况(不得不佩服开发者考虑问题的全面性)。

三、scan是怎么应对hash表扩容和缩容的

我们来看一下在SCAN遍历过程中,发生扩容时,遍历会如何进行。加入我们原始的数组有4个元素,也就是索引有2位,这时需要把它扩充成3位,并进行rehash。
在这里插入图片描述
1、扩容
原来挂接在xx下的所有元素被分配到0xx和1xx下。在上图中,当我们即将遍历10时,dict进行了rehash,这时,scan命令会从010开始遍历,而000和100(原00下挂接的元素)不会再被重复遍历。

2、缩容
再来看看缩容的情况。假设dict从3位缩容到2位,当即将遍历110时,dict发生了缩容,这时scan会遍历10。这时010下挂接的元素会被重复遍历,但010之前的元素都不会被重复遍历了。所以,缩容时还是可能会有些重复元素出现的。

四、redis的rehash操作

rehash是一个比较复杂的过程,为了不阻塞Redis的进程,它采用了一种渐进式的rehash的机制。

/* 字典 */
typedef struct dict {
    // 类型特定函数
    dictType *type;
    // 私有数据
    void *privdata;
    // 哈希表
    dictht ht[2];
    // rehash 索引
    // 当 rehash 不在进行时,值为 -1
    int rehashidx; /* rehashing not in progress if rehashidx == -1 */
    // 目前正在运行的安全迭代器的数量
    int iterators; /* number of iterators currently running */
} dict;

在Redis的字典结构中,有两个hash表,一个新表,一个旧表。在rehash的过程中,redis将旧表中的元素逐步迁移到新表中,接下来我们看一下dict的rehash操作的源码。

int dictRehash(dict *d, int n) {
    int empty_visits = n*10; /* Max number of empty buckets to visit. */
    if (!dictIsRehashing(d)) return 0;

    while(n-- && d->ht[0].used != 0) {
        dictEntry *de, *nextde;

        /* Note that rehashidx can't overflow as we are sure there are more
         * elements because ht[0].used != 0 */
        assert(d->ht[0].size > (unsigned long)d->rehashidx);
        while(d->ht[0].table[d->rehashidx] == NULL) {
            d->rehashidx++;
            if (--empty_visits == 0) return 1;
        }
        de = d->ht[0].table[d->rehashidx];
        /* Move all the keys in this bucket from the old to the new hash HT */
        while(de) {
            uint64_t h;

            nextde = de->next;
            /* Get the index in the new hash table */
            h = dictHashKey(d, de->key) & d->ht[1].sizemask;
            de->next = d->ht[1].table[h];
            d->ht[1].table[h] = de;
            d->ht[0].used--;
            d->ht[1].used++;
            de = nextde;
        }
        d->ht[0].table[d->rehashidx] = NULL;
        d->rehashidx++;
    }

    /* Check if we already rehashed the whole table... */
    if (d->ht[0].used == 0) {
        zfree(d->ht[0].table);
        d->ht[0] = d->ht[1];
        _dictReset(&d->ht[1]);
        d->rehashidx = -1;
        return 0;
    }

    /* More to rehash... */
    return 1;
}

rehash的过程是以bucket为基本单位进行迁移的,所谓的bucket其实就是我们前面所提到的一维数组的元素,每次迁移一个列表。下面来解释一下这段代码。

  1. 首先判断一下是否在进行rehash,如果是,则继续进行;否则直接返回。
  2. 接着就是分n步开始进行渐进式rehash。同时还判断是否还有剩余元素,以保证安全性。
  3. 在进行rehash之前,首先判断要迁移的bucket是否越界。
  4. 然后跳过空的bucket,这里有一个empty_visits变量,表示最大可访问的空bucket的数量,这一变量主要是为了保证不过多的阻塞Redis。
  5. 接下来就是元素的迁移,将当前bucket的全部元素进行rehash,并且更新两张表中元素的数量。
  6. 每次迁移完一个bucket,需要将旧表中的bucket指向NULL。
  7. 最后判断一下是否全部迁移完成,如果是,则收回空间,重置rehash索引,否则告诉调用方,仍有数据未迁移。

由于Redis使用的是渐进式rehash机制,因此,scan命令在需要同时扫描新表和旧表,将结果返回客户端。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值