深入Spark内核:任务调度(1)-基本流程

SparkContext是Spark应用的入口并负责和整个集群的交互,创建RDD,累积量(accumulators variables)和广播量(broadcast variables)等, 理解spark的任务调度基本流程,就需要从SparkContext开始。下图是官网Spark的架构图:

                             

       DriverProgram即用户提交的程序定义并创建了SparkContext的实例,SparkContext会根据RDD对象构建DAG图,然后将作业(job)提交(runJob)给DAGScheduler。

       DAGScheduler对作业的DAG图进行切分成不同的stage<stage是根据shuffle为单位进行划分>,每个stage都是任务的集合(taskset)并以taskset为单位提交(submitTasks)给TaskScheduler。

       TaskScheduler通过TaskSetManager管理任务(task)并通过集群中的资源管理器(Cluster Manager)<standalone模式下是Master,yarn模式下是ResourceManager>把任务(task)发给集群中的Worker的Executor, 期间如果某个任务(task)失败, TaskScheduler会重试,TaskScheduler发现某个任务(task)一直未运行完成,有可能在不同机器启动同一个任务(task),哪个任务(task)先运行完就用哪个任务(task)的结果。无论任务(task)运行成功或者失败TaskScheduler都会向DAGScheduler汇报当前状态,如果某个stage运行失败,TaskScheduler会通知DAGScheduler可能会重新提交任务。

       Worker接收到的是任务(task),执行任务(task)的是进程中的线程,一个进程中可以有多个线程工作进而可以处理多个数据分片,执行任务(task)、读取或存储数据。


 

           DAGScheduler - graph of stages RDD partitioning pipeline高级的调度器,面向stage的调度(stage-oriented scheduling),为每个job的不同stage计算DAG,跟踪哪些RDD和stage被物化 并且发现运行job的最小的调度策略 。TaskScheduler是可插拔的低级别任务调度器,由TaskSchedulerImpl实现TaskScheduler具体功能,管理Task级别的以及集群交互, 一个TaskScheduler只为一个SparkContext实例服务。接下来,我们将深入DAGScheduler、TaskScheduler和Worker的源码详解 来逐步揭开它们神秘的面纱
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值