kafka设置持久化到MySQL_Kafka实战-数据持久化

本文介绍了Kafka实战系列的最后一环——结果数据持久化。通过Storm集群,计算结果被输出到Redis和MySQL中进行持久化。文章详细讲解了如何将Storm的计算结果写入Redis,并提供了代码示例,但MySQL部分并未详述。实现实时计算结果的持久化对于前端展示至关重要,同时提到了通过Storm UI监控作业状态和排查异常的方法。
摘要由CSDN通过智能技术生成

1.概述

经过前面Kafka实战系列的学习,我们通过学习《Kafka实战-入门》了解Kafka的应用场景和基本原理,《Kafka实战-Kafka Cluster》一文给大家分享了Kafka集群的搭建部署,让大家掌握了集群的搭建步骤,《Kafka实战-实时日志统计流程》一文给大家讲解一个项目(或者说是系统)的整体流程,《Kafka实战-Flume到Kafka》一文给大家介绍了Kafka的数据生产过程,《Kafka实战-Kafka到Storm》一文给大家介绍了Kafka的数据消费,通过Storm来实时计算处理。今天进入Kafka实战的最后一个环节,那就是Kafka实战的结果的数据持久化。下面是今天要分享的内容目录:

结果持久化

实现过程

结果预览

下面开始今天的分享内容。

2.结果持久化

一般,我们在进行实时计算,将结果统计处理后,需要将结果进行输出,供前端工程师去展示我们统计的结果(所说的报表)。结果的存储,这里我们选择的是Redis+MySQL进行存储,下面用一张图来展示这个持久化的流程,如下图所示:

0caa29181280539217333df098cbbc9e.png

从途中可以看出,实时计算的部分由Storm集群去完成,然后将计算的结果输出到Redis和MySQL库中进行持久化,给前端展示提供数据源。接下来,我给大家介绍如何实现这部分流程。

3.实现过程

首先,我们去实现Storm的计算结果输出到Redis库中,代码如下所示:

packagecn.hadoop.hdfs.storm;importjava.util.HashMap;importjava.util.Map;importjava.util.Map.Entry;importredis.clients.jedis.Jedis;importcn.hadoop.hdfs.util.JedisFactory;importbacktype.storm.task.OutputCollector;importbacktype.storm.task.TopologyContext;importbacktype.storm.topology.IRichBolt;importbacktype.storm.topology.OutputFieldsDeclarer;importbacktype.storm.tuple.Tuple;/*** @Date Jun 10, 2015

*

* @Author dengjie

*

* @Note Calc WordsCount eg.*/

public class WordsCounterBlots implementsIRichBolt {/****/

private static final long serialVersionUID = -619395076356762569L;

OutputCollector collector;

Mapcounter;

@SuppressWarnings("rawtypes")public voidprepare(Map stormConf, TopologyContext context, OutputCollector collector) {this.collector =collector;this.counter = new HashMap();

}public voidexecute(Tuple input) {

String word= input.getString(0);

Integer integer= this.counter.get(word);if (integer != null) {

integer+= 1;this.counter.put(word, integer);

}else{this.counter.put(word, 1);

}for (Entry entry : this.counter.entrySet()) {//write result to redis

Jedis jedis = JedisFactory.getJedisInstance("real-time");

jedis.set(entry.getKey(), entry.getValue().toString());//write result to mysql//...

}this.collector.ack(input);

}public voidcleanup() {//TODO Auto-generated method stub

}public voiddeclareOutputFields(OutputFieldsDeclarer declarer) {//TODO Auto-generated method stub

}public MapgetComponentConfiguration() {//TODO Auto-generated method stub

return null;

}

}

注:这里关于输出到MySQL就不赘述了,大家可以按需处理即可。

4.结果预览

在实现持久化到Redis的代码实现后,接下来,我们通过提交Storm作业,来观察是否将计算后的结果持久化到了Redis集群中。结果如下图所示:

971c6a6081859712546efc6da27bb2ba.png

通过Redis的Client来浏览存储的Key值,可以观察统计的结果持久化到来Redis中。

5.总结

我们在提交作业到Storm集群的时候需要观察作业运行状况,有可能会出现异常,我们可以通过Storm UI界面来观察,会有提示异常信息的详细描述。若是出错,大家可以通过Storm UI的错误信息和Log日志打印的错误信息来定位出原因,从而找到对应的解决办法。

6.结束语

这篇博客就和大家分享到这里,如果大家在研究学习的过程当中有什么问题,可以加群进行讨论或发送邮件给我,我会尽我所能为您解答,与君共勉!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值