提出需求
实时统计业务系统(web,APP之类)的访问人数,即所谓UV,或者DAU指标.
这个需求怕是流计算最最最常见的需求了.
计算UV的关键点就在于去重,即同一个人访问两次是只计一个UV的.在离线计算中统计UV比较容易想到的方法就是用group或distinct机制来去重.但是在实时计算场景,还用group就不太科学了,一个是全量数据的group是比较费时的,第二个是全量数据的group是很费内存和CPU的.特别是当用户量巨大的时候,还要做到秒级更新就更难了.
总结起来,需求就是:海量用户场景UV实时计算.
接受挑战
不难发现,问题的主要难点就是去重.
Spark Streaming目前没有给出内置方案(这个其实可以有),但是海量数据去重问题早就有解决办法了.
所以Spark Streaming程序完全可以利用其他系统的现有方案解决去重问题,比如Redis.
Redis的海量去重计数方案
Bitmap方案
所谓的Bitmap就是用一个bit位来标记某个元素对应的Value,比如ID为2的用户,就用第2个bit位来表示,然后用该位的值来表示该用户是否访问过.如果要计算UV,那就只要数一下有多少个1就行啦.
假设我们有40亿用户,使用Bitmap需要2^32个bit位,算下来也就500M左右.
你可能没想到的是,Redis中最常用的数据结构string,就可以实现bitmap算法.
Redis提供了如下命令
// 插入
setbit key offset value
/