Spark运行流程( RDD 的job调度流程: Driver内部运行流程)

Spark在遇到action算子时会触发Job任务,DAGScheduler构建执行流程图并划分阶段,TaskScheduler负责TaskSet的均衡分配给executor执行,Driver进行任务监控。
摘要由CSDN通过智能技术生成
        Spark程序 , 遇到一个 action 算子 , 就会产生一个 Job 的任务 , 首先就会先 SparkContext 对象 , 同时在其底层也会创建DAGScheduler TaskScheduler
        首先DAGScheduler 负责生成 DAG 的执行流程图 , 划分有多少个阶段 , 并且确定每个阶段内部有多少个线程 , 然后将每个阶段的线程放置到一个TaskSet , 然后提交到 TaskScheduler
        接着TaskScheduler 接收到 TaskSet , 然后依次遍历每一个阶段的 TaskSet, 将其尽可能均衡分配给对应的
executor 来运行 , 从而完成所有的阶段的执行操作
        最后Driver 负责任务的监控管理即可 ....

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值