spark job调度

整个程序sparkContext调度的

    DAGScheduler

     DAG调度

        DAG:有向无环图

        每个job划分为多个stage(阶段)

        (a)倒推法划分 -栈

            从Job的最后一个RDD向前推依赖关系

          (b)判定子RDD和父RDD之间的依赖关系

             宽依赖,产生shuffle,划分stage

TaskScheduler

       task的调度

       调度各个Stage中Task的执行,按照从前往后顺序执行stage中的task即可,

       task放到executor中执行。

 

stage分成2中

       shuffleMapStage

              除去最后一个Stage中其他stage

              每个stage中的task产生的结果,类似于MapTask一样

       resultStage

              job 中的最后一个,产生结果数据,类似于MapReduce中reduceTask

                 

    10个executor,每个executor有10GB内存,10core,整个application可以同时运行多少个task数目

    10*10

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值