Redis 精确去重计数 —— 咆哮位图

如果要统计一篇文章的阅读量,可以直接使用 Redis 的 incr 指令来完成。如果要求阅读量必须按用户去重,那就可以使用 set 来记录阅读了这篇文章的所有用户 id,获取 set 集合的长度就是去重阅读量。但是如果爆款文章阅读量太大,set 会浪费太多存储空间。这时候我们就要使用 Redis 提供的 HyperLogLog 数据结构来代替 set,它只会占用最多 12k 的存储空间就可以完成海量的去重统计。但是它牺牲了准确度,它是模糊计数,误差率约为 0.81%。

那么有没有一种不怎么浪费空间的精确计数方法呢?我们首先想到的就是位图,可以使用位图的一个位来表示一个用户id。如果一个用户id是32字节,那么使用位图就只需要占用 1/256 的空间就可以完成精确计数。但是如何将用户id映射到位图的位置呢?如果用户id是连续的整数这很好办,但是通常用户系统的用户id并不是整数,而是字符串或者是有一定随机性的大整数。

我们可以强行给每个用户id赋予一个整数序列,然后将用户id和整数的对应关系存在redis中。

$next_user_id = incr user_id_seq
set user_id_xxx   $next_user_id
$next_user_id = incr user_id_seq
set user_id_yyy  $next_user_id
$next_user_id = incr user_id_seq
set user_id_zzz   $next_user_id
复制代码

这里你也许会提出疑问,你说是为了节省空间,这里存储用户id和整数的映射关系就不浪费空间了么?这个问题提的很好,但是同时我们也要看到这个映射关系是可以复用的,它可以统计所有文章的阅读量,还可以统计签到用户的日活、月活,还可以用在很多其它的需要用户去重的统计场合中。所谓「功在当代,利在千秋」就是这个意思。

有了这个映射关系,我们就很容易构造出每一篇文章的阅读打点位图,来一个用户,就将相应位图中相应的位置为一。如果位从0变成1,那么就可以给阅读数加1。这样就可以很方便的获得文章的阅读数。

而且我们还可以动态计算阅读了两篇文章的公共用户量有多少?将两个位图做一下 AND 计算,然后统计位图中位 1 的个数。同样,还可以有 OR 计算、XOR 计算等等都是可行的。

问题又来了!Redis 的位图是密集位图,什么意思呢?如果有一个很大的位图,它只有最后一个位是 1,其它都是零,这个位图还是会占用全部的内存空间,这就不是一般的浪费了。你可以想象大部分文章的阅读量都不大,但是它们的占用空间却是很接近的,和哪些爆款文章占据的内存差不多。

看来这个方案行不通,我们需要想想其它方案!这时咆哮位图(RoaringBitmap)来了。

它将整个大位图进行了分块,如果整个块都是零,那么这整个块就不用存了。但是如果位1比较分散,每个块里面都有1,虽然单个块里的1很少,这样只进行分块还是不够的,那该怎么办呢?我们再想想,对于单个块,是不是可以继续优化?如果单个块内部位 1 个数量很少,我们可以只存储所有位1的块内偏移量(整数),也就是存一个整数列表,那么块内的存储也可以降下来。这就是单个块位图的稀疏存储形式 —— 存储偏移量整数列表。只有单块内的位1超过了一个阈值,才会一次性将稀疏存储转换为密集存储。

咆哮位图除了可以大幅节约空间之外,还会降低 AND、OR 等位运算的计算效率。以前需要计算整个位图,现在只需要计算部分块。如果块内非常稀疏,那么只需要对这些小整数列表进行集合的 AND、OR 运算,如是计算量还能继续减轻。

这里既不是用空间换时间,也没有用时间换空间,而是用逻辑的复杂度同时换取了空间和时间。

咆哮位图的位长最大为 2^32,对应的空间为 512M(普通位图),位偏移被分割成高 16 位和低 16 位,高 16 位表示块偏移,低16位表示块内位置,单个块可以表达 64k 的位长,也就是 8K 字节。最多会有64k个块。现代处理器的 L1 缓存普遍要大于 8K,这样可以保证单个块都可以全部放入 L1 Cache,可以显著提升性能。

如果单个块所有的位全是零,那么它就不需要存储。具体某个块是否存在也可以是用位图来表达,当块很少时,用整数列表表示,当块多了就可以转换成普通位图。整数列表占用的空间少,它还有类似于 ArrayList 的动态扩容机制避免反复扩容复制数组内容。当列表中的数字超出4096个时,会立即转变成普通位图。

用来表达块是否存在的数据结构和表达单个块数据的结构可以是同一个,因为块是否存在本质上也是 0 和 1,就是普通的位标志。

但是 Redis 并没有原生支持咆哮位图这个数据结构啊?我们该如何使用呢?

Redis 确实没有原生的,但是咆哮位图的 Redis Module 有。

github.com/aviggiano/r…

这个项目的 star 数量并不是很多,我们来看看它的官方性能对比

OPTIME/OP (us)ST.DEV. (us)
R.SETBIT31.8928.49
SETBIT29.9829.23
R.GETBIT29.9014.60
GETBIT28.6314.58
R.BITCOUNT32.130.10
BITCOUNT192.380.96
R.BITPOS70.270.14
BITPOS87.700.62
R.BITOP NOT156.663.15
BITOP NOT364.465.62
R.BITOP AND81.560.48
BITOP AND492.978.32
R.BITOP OR107.032.44
BITOP OR461.688.42
R.BITOP XOR69.072.82
BITOP XOR440.757.90

很明显这里对比的是稀疏位图,只有稀疏位图才可以呈现出这样好看的数字。如果是密集位图,咆哮位图的性能肯定要稍弱于普通位图,但是通常也不会弱太多。

下面我们来观察一下源代码看看它的内部结构是怎样的

// 单个块
typedef struct roaring_array_s {
    int32_t size;
    int32_t allocation_size;
    void **containers;  // 指向整数数组或者普通位图
    uint16_t *keys;
    uint8_t *typecodes;
    uint8_t flags;
} roaring_array_t;

// 所有块
typedef struct roaring_bitmap_s {
    roaring_array_t high_low_container;
} roaring_bitmap_t;
复制代码

很明显可以看到块存在与否和块内数据都是使用同样的数据结构表达的,它们都是 roaring_bitmap_t。这个结构里面有多种编码形式,类型使用 typecodes 字段来表示。

#define BITSET_CONTAINER_TYPE_CODE 1
#define ARRAY_CONTAINER_TYPE_CODE 2
#define RUN_CONTAINER_TYPE_CODE 3
#define SHARED_CONTAINER_TYPE_CODE 4
复制代码

看到这里的类型定义,我们发现它不止前面提到的普通位图和数组列表两种形式,还有 RUN 和 SHARED 这两种类型。RUN 形式是位图的压缩形式,比如连续的几个位 101,102,103,104,105,106,107,108,109 表示成 RUN 后就是 101,8(1 后面是 8 个自增的整数),这样在空间上就可以明显压缩不少。在正常情况下咆哮位图内部没有 RUN 类型的块。只有显示调用了咆哮位图的优化 API 才会转换成 RUN 格式,这个 API 是 roaring_bitmap_run_optimize。

而 SHARED 类型用于在多个咆哮位图之间共享块,它还提供了写复制功能。当这个块被修改时将会复制出新的一份。

咆哮位图的计算逻辑还有更多的细节,我们后面有空再继续介绍。

Scrapy-Redis是一个用于Scrapy爬虫的数据持久化中间件,它可以利用Redis作为数据存储和去重的解决方案。要在Scrapy项目中配置Redis去重机制,你需要按照以下步骤操作: 1. **安装scrapy-redis**: 在你的Scrapy项目目录中运行命令: ``` pip install scrapy_redis ``` 2. **添加中间件到settings.py**: 在`settings.py`文件中,确保已经包含了`scrapy_redis`的相关设置,并启用它。例如: ```python DOWNLOADER_MIDDLEWARES = { 'scrapy_redis.middleware.RedisMiddleware': 700, # 其他中间件... } ITEM_PIPELINES = { 'scrapy_redis.pipelines.RedisPipeline': 300, } REDIS_PARAMS = { 'host': 'localhost', # Redis服务器地址,默认为localhost 'port': 6379, # Redis端口,默认为6379 'db': 0, # 数据库索引,一般选择0 'password': '', # 如果有密码,此处填入 } ``` 3. **启用去重功能**: 要启用去重,你需要开启RedisMiddleware,并设置相应的去重策略。可以选择`DUPEFILTER_CLASS`来指定去重规则。例如,使用简单的哈希去重: ```python DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" ``` 或者使用更复杂的基于请求的去重(如避免爬取相同的URL): ```python REDIS_KEY_PREFIX = 'your_prefix_' # 自定义Redis键前缀 ``` 4. **启动Redis客户端**: 确保你的Redis服务正在运行。如果没有,可以使用命令行启动本地Redis服务: ``` redis-server ``` 完成上述设置后,Scrapy-Redis会自动将请求ID、响应体等信息存入Redis,并通过哈希或自定义键进行去重处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值