SparkStreaming源码解读

一、SparkStreaming的核心原理

     将连续的流数据通过时间间隔的形式划分为离散的流数据,即为某段时间的数据。

二、SparkStreaming框架的核心思想

    1、流的输入:InputStreams  --> 源数据

    2、流的输出:outputDStreams --> 要计算的结果数据

三、整体架构:

    

 

四、具体的解决方案(源码版本为1.6.3)

1、使用DStreamingGraph来做基本的划分

     

 

2、输入流:通过StreamingContext设置输入流

     

     ReceiverInputDStream 的getReceiver 方法是如何获取流数据,compute方法是计算时通过这个方法获取数据

     

 

3、输出流

    Job的生成

   

   放入DStreamGraph 的outputStream 中

   

 

 开始调度

  

 

  

 

  

  

  

  

  

 Jobs的生成和提交

  

  

  

 

 

 需要注意的是高级的数据源的接收可以有多种方案,详情可查看官网。(http://spark.apache.org/docs/1.6.3/streaming-kafka-integration.html)

 

 

    

转载于:https://www.cnblogs.com/flex-lin/p/7069600.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值