一、Spark基本概念
在学习Spark运行架构之前,我们有必要先了解Spark中几个基本概念。
1、Application(应用程序):是指我们编写的Spark应用程序,包含驱动程序(Driver)和分布在集群中多个节点上运行的Executor代码,在执行过程中由一个或多个job组成。
2、Driver(驱动程序):Spark中的Driver即运行Application的main方法,并且创建SparkContext,创建SparkContext的目的是为了准备Spark应用程序的运行环境。在Spark中由SparkContext负责与Cluster Manager通信,进行资源的申请、任务的分配和监控。当Executor部分运行完毕后,Driver负责将SparkContext关闭。通常用SparkContext代表Driver。
3、Cluster Manager(集群资源管理器):是指在集群上获取资源的外部服务,目前常用的有以下几种:
(1)standalone:Spark自带的资源管理,由Master负责资源的管理和调度。
(2)Hadoop YARN:由YARN中的ResourceManager负责资源的管理。
(3)Mesos:由Mesos中的Mesos Master负责资源的管理。
4、Worker(工作节点):集群中任何可以运行Application代码的节点,类似于YARN中的NodeManager节点。在Standalone模式中指的是通过Slave文件配置的Worker节点。
5、Master:Spark Standalone模式下的主节点,负责管理和分配集群资源来运行Spark Application。
6、Executor:Application运行在Worker节点上的一个进程,该进程负责运行Task,并负责将数据存在内存或者磁盘上,每个Application都有各自独立的一批Executor。
二、Spark运行架构
先上一张Spark运行架构原理图吧。
其执行流程:
1、使用spark-sbumit提交我们的应用程序,通过反射的方式,创建和构造出一个Driver进程。
2、Driver进程(可以理解为有main方法的那个类)开始从头到尾执行我们写的代码,第一行即创建SparkConf和SparkContext对象。SparkContext在初始化的时候,会构造出DAGScheduler和TaskScheduler。
3、TaskScheduler通过它自己对应的进程去连接Master,并负责向Master注册Application。
4、Master接收到注册请求时候,会通过自己的资源调度算法,在Spark集群的Worker上,为这个Application启动多个Executor。
5、Worker为Application启动Executor,Executor启动之后,自己会反向注册到TaskScheduler上去。
6、至此整个初始化工作完成,SparkContext继续执行我们的代码。每遇到一个action操作,就会形成一个job,然后将该job提交到DAGScheduler。
7、DAGScheduler根据State划分算法,将一个job划分成多个State,每个State就是一个TaskSet。并将该Taskset提交到TaskScheduler。
8、TaskScheduler会将TaskSet中的每一个Task提交到Executor执行。
9、Executor每接收到一个task,都会用TaskRunner来封装task,然后从线程池中取出一个线程来执行task。
10、所以,最后整个Spark应用程序的执行就是state分批次作为taskset提交到executor执行,每个task针对RDD的一个分区,执行我们定义的算子和函数。以此类推,直到所有操作执行完为止。
三、后续
针对Spark应用程序执行流程,我们后续将陆续学习各个阶段的原理和源码,如下:
- Master的启动原理和源码分析。
- Worker的启动原理和源码分析。
- SparkContext的初始化原理图。
- DAGScheduler以及state划分算法。
- TaskScheduler原理剖析。
- Executor原理。
- Task原理剖析。
- 作业提交执行类调用关系。
- Checkpoint原理剖析。
- Cache原理剖析。
- Shuffle原理剖析。
- Master的注册机制原理。
- Master的资源调度原理。
- Master主备切换原理。
四、说明
这是一个自我学习以及知识总结共享的过程,中间肯定会出现理解不到位甚至出现错误的地方,希望大家能够多多指正并互相探讨共同进步。