spark实战(一)——eclipse环境下Spark Streaming+Kafka+Hbase
提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加
例如:第一章 Python 机器学习入门之pandas的使用
提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
一、开发环境搭建
二、使用步骤
1.引入库
2.读入数据
总结
前言
应用场景:日志数据使用flume收集后发送给Kafka,需要将这些流式日志数据实时写入到Hbase中,使用Spark Streaming进行流式数据处理达到近似实时的效果。
提示:以下是本篇文章正文内..
原创
2020-12-10 09:27:12 ·
393 阅读 ·
1 评论