Spark streaming + Kafka 实时数据分析大数据项目实战

实时/离线 流式计算框架:Spark Streaming
Spark Streaming 是核心spark API的一个扩展,在处理数据前按时间间隔预先将其切分为一段一段的批处理作业。
Spark 针对持续性数据流的抽象称为DStream,一个DStream是一个批处理的RDD(弹性分布式数据集);而RDD则是一个分布式数据集,能够以两种方式并行运作,分别是任意函数和滑动窗口数据的转换。
实战一:Receiver – based
1) 启动zookeeper
2) 启动kafka
3) 打jar包前先注释掉setAppName和setMaster

Spark-submit \
--class com.cauc.spark.KafkaReceiverWordCount \
--master local[2] \
--name KafkaReceiverWordCount \
--packages org.apache.spark:spark-streaming-kafka_2.10:1.6.0 \

(将spark程序打成jar包的位置)10.5.45.212:2181 test_group1 test 10
在这里插入图片描述

实战二:Direct Approach

Spark-submit \
--class com.lt.spark.KafkaDirectWordCount \
--master local[2] \
--name KafkaDirectWordCount \
--packages org.apache.spark:spark-streaming-kafka_2.11:1.6.0 \

(将spark程序打成jar包的位置)10.5.45.212:2181 test_group1 test 10

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值