第7课 Spark Streaming源码解读之JobScheduler内幕实现

在spark stream程序中的一条关键的语句就是:ssc.start()

1,跟踪进入StreamingContext的start 方法,有一句非常关键的语句scheduler.start(),是个JobScheduler(spark stream用来job调度的)

进行job调度的入口!

2,计入JobScheduler 的start方法。

114152_yfhO_2751816.png

 

在这个方法中几个关键的点是:

eventLoop.start() 一个事件循环器,用于响应其它组件发来的事件(包括job的启动,完成,以及错误报告)。

114201_gzhz_2751816.pngreceiverTracker.start() 控制了整个receiver的生成,与数据的接受

jobGenerator.start() 真正开始进行job的生成
 

114215_0ZtW_2751816.png在这个方法中也维护了一个事件处理的循环器eventLoop,用于处理各种事件

114609_ii4U_2751816.png其中最为关键的事件是GenerateJobs(time),这个事件是进行生成job的事件!!

跟踪计入generateJobs(time)

114651_7MUi_2751816.png

jobScheduler.receiverTracker.allocateBlocksToBatch(time) 为当前的bath分发收到的数据Blocks。

graph.generateJobs(time):根据当前编写的程序的output动作生成相应的job并封装进入集合中。

114706_VzFl_2751816.png

最终通过

114309_wvqr_2751816.png提交作业到executor

114720_4HYr_2751816.png

在回去看看jobGenerator.start()中的startFirstTime()

private def startFirstTime() {

  val startTime = new Time(timer.getStartTime())

  graph.start(startTime - graph.batchDuration)

  timer.start(startTime.milliseconds)

  logInfo("Started JobGenerator at " + startTime)

}

第一次启动会启动一个定时器,该定时器会根基duration bath 不断的的给jobGenerator中的消息循环体!

 
 

在jobGenerator中的消息循环体就会不断的去除消息进行处理

114321_ozEf_2751816.png

114529_3c5o_2751816.png

转载于:https://my.oschina.net/jfld/blog/675297

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值