分布式实时统计系统--Rainbird

最近Twitter开发了一款分布式实时统计系统Rainbird。


用处

Rainbird可以用于实时数据的统计:

1 统计网站中每一个页面,域名的点击次数

2 内部系统的运行监控(统计被监控服务器的运行状态)

3 记录最大值和最小值


性能要求

作为大型网站的分布式应用,需要具备以下性能: 

1 极高的写入性能,可以达到100,000的WPS

2 非常高的读取性能,可以达到10,000s的RPS

3 高度的可扩展性,包括读取和存储等等,能够扩展到100+ TB的量级

4 读取速度响应间隔短,绝大多数的读取速度应该不超过100ms


系统组件

Rainbird一款基于Zookeeper, Cassandra, Scribe, Thrift的分布式实时统计系统,这些基础组件的基本功能如下:

1 Zookeeper,Hadoop子项目中的一款分布式协调系统,用于控制分布式系统中各个组件中的一致性。

2 Cassandra,NoSQL中一款非常出色的产品,集合了Dynamo和Bigtable特性的分布式存储系统,用于存储需要进行统计的数据,统计数据,并且提供客户端进行统计数据的查询。(需要使用分布式Counter补丁CASSANDRA-1072)

3 Scribe,Facebook开源的一款分布式日志收集系统,用于在系统中将各个需要统计的数据源收集到Cassandra中。

4 Thrift,Facebook开源的一款跨语言C/S网络通信框架,开发人员基于这个框架可以轻易地开发C/S应用。


整体设计

Rainbird的设计架构图如下:

2011020611473856.jpg

整个Rainbird系统中各个组件之间的协调和容灾处理由ZooKeeper负责,Cassandra负责整个数据的存储和统计。

Front End中部署了Scribe,收集需要统计的数据,然后将收集到数据实时地发生到Rainbird Aggregator中。

Rainbird Aggregator将缓存收集的数据(1M),并将缓存的数据进行一次预处理,然后再将数据一次性批量写入到Cassandra中。这里预处理的作用类似于MapReduce框架中的combiner的作用,在Maper端做Reduce。

Rainbird Query接受用户的查询请求,直接到Cassandra中查询已经统计好的数据返回给客户端。


页面URL统计示例

将设我们需要统计网站的页面点击的情况,那么如何使用Rainbird来进行统计呢?

在统计的过程中,本博客中一篇文章的URL为:http://www.cnblogs.com/gpcuster/tag/Cassandra/

我们可以将这个URL分拆为以下四个部分

com

cnblogs

www

http://www.cnblogs.com/gpcuster/tag/Cassandra/

然后以分拆后的这四个部分组合为以下Key:

com,cnblogs,www,http://www.cnblogs.com/gpcuster/tag/Cassandra/

com,cnblogs,www

com,cnblogs

com

最后将这些Key的数据写入Cassandra中。这样就完成了整个统计的过程。

如果需要查询页面http://www.cnblogs.com/gpcuster/tag/Cassandra/被访问了多少次,只要在Cassandra中查询Key为com,cnblogs,www,http://www.cnblogs.com/gpcuster/tag/Cassandra/的值即可。

如果需要查询页面http://www.cnblogs.com被访问了多少次,只要在Cassandra中查询Key为com,cnblogs,www的值即可。

如果要查询页面http://*cnblogs.com被访问了多少次,也可以进行类似的查询即可。

 

更多参考

如果希望了解更详细的信息,可以参考:http://www.slideshare.net/kevinweil/rainbird-realtime-analytics-at-twitter-strata-2011

另外,想了解更多关于Cassandra的信息,可以参考:http://www.cnblogs.com/gpcuster/tag/Cassandra/

想了解更多关于ZooKeeper的信息,可以参考:http://www.cnblogs.com/gpcuster/tag/ZooKeeper/

一、基于nginx+lua完成商品详情页访问流量实时上报kafka的开发 ==================================== 在nginx这一层,接收到访问请求的时候,就把请求的流量上报发送给kafka 这样的话,storm才能去消费kafka中的实时的访问日志,然后去进行缓存热数据的统计 用得技术方案非常简单,从lua脚本直接创建一个kafka producer,发送数据到kafka ``` wget https://github.com/doujiang24/lua-resty-kafka/archive/master.zip yum install -y unzip unzip lua-resty-kafka-master.zip cp -rf /usr/local/lua-resty-kafka-master/lib/resty /usr/hello/lualib nginx -s reload local cjson = require("cjson") local producer = require("resty.kafka.producer") local broker_list = { { host = "192.168.31.187", port = 9092 }, { host = "192.168.31.19", port = 9092 }, { host = "192.168.31.227", port = 9092 } } local log_json = {} log_json["headers"] = ngx.req.get_headers() log_json["uri_args"] = ngx.req.get_uri_args() log_json["body"] = ngx.req.read_body() log_json["http_version"] = ngx.req.http_version() log_json["method"] =ngx.req.get_method() log_json["raw_reader"] = ngx.req.raw_header() log_json["body_data"] = ngx.req.get_body_data() local message = cjson.encode(log_json); local productId = ngx.req.get_uri_args()["productId"] local async_producer = producer:new(broker_list, { producer_type = "async" }) local ok, err = async_producer:send("access-log", productId, message) if not ok then ngx.log(ngx.ERR, "kafka send err:", err) return end ``` 两台机器上都这样做,才能统一上报流量到kafka ``` bin/kafka-topics.sh --zookeeper 192.168.31.187:2181,192.168.31.19:2181,192.168.31.227:2181 --topic access-log --replication-factor 1 --partitions 1 --create bin/kafka-console-consumer.sh --zookeeper 192.168.31.187:2181,192.168.31.19:2181,192.168.31.227:2181 --topic access-log --from-beginning ``` (1)kafka在187上的节点死掉了,可能是虚拟机的问题,杀掉进程,重新启动一下 nohup bin/kafka-server-start.sh config/server.properties & (2)需要在nginx.conf中,http部分,加入resolver 8.8.8.8; (3)需要在kafka中加入advertised.host.name = 192.168.31.187,重启三个kafka进程 (4)需要启动eshop-cache缓存服务,因为nginx中的本地缓存可能不在了 二、基于storm+kafka完成商品访问次数实时统计拓扑的开发 ==============
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值