Spark Standalone 内部原理(一)

本文详细介绍了Spark Standalone模式下,从Application提交到Executor运行的完整过程,包括Master节点的角色、恢复机制,以及Worker、Driver、Application的注册和调度策略。深入理解Spark Standalone的内部工作原理。
摘要由CSDN通过智能技术生成

Standalone内部实现原理:

Spark Application运行的主要流程如下(以Spark-submit模式提交,Driver在本地)

(1)客户端启动,初始化相关的环境变量,包括Application代码的提交。

(2)反射调用org.apache.spark.deploy.yarn.Client,创建DriverActor(其他方式提交,Driver可能运行在Worker节点中)。

(3)向Master注册Driver

(4)Driver初始化SparkContext,DAGScheduler,TaskScheduler等

(5)DAGScheduler向Master注册Application,Master接受请求后,根据资源情况向Worker发送指令启动Executor,Executor启动后向Driver注册。

(6)DAGScheduler进行Job的Stage划分

(7)DAGScheduler提交作业给TaskScheduler

(8)TaskScheduler向注册来的Executor发送LaunchTask命令进行任务的运行

(9)Executor端运行Task相关信息的反序列化,相关Jar包和配置文件的下载,并运行

(10)如果运行的ShuffleMapTask,将结果保存在本地文件中,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值