从三个部分来解读Spark-core,首先是Spark的架构,阐述了Spark基于弹性分布式数据集RDD这个计算模型的工作机制(计算流程):Application->Job->Stage->Task 的分解、分发和并行计算;接下去从计算模型和工作机制两个方面,分别解读RDD的设计思想及其算子,以及划分RDD有向无环图为Stage和Task、并行计算的工作机制。进一步的原理分析和源码研读将在该系列的后续文章中撰写。
Spark的架构
Spark采用了分布式计算中的Master-Slave模型。Master作为整个集群的控制器,负责整个集群的正常运行;Worker是计算节点,接受主节点命令以及进行状态汇报;Executor负责任务(Tast)的调度和执行;Client作为用户的客户端负责提交应用;Driver负责控制一个应用的执行。
![](https://i-blog.csdnimg.cn/blog_migrate/346d23462bc8df1b9e23d421b7e6667a.webp?x-image-process=image/format,png)
Spark集群启动时,需要从主节点和从节点分别启动Master进程和Worker进程,对整个集群进行控制。在一个Spark应用的执行过程中,Driver是应用的逻辑执行起点,运行Application的main函数并创建SparkContext,DAGScheduler把对Job中的RDD有向无环图根据依赖关系划分为多个Stage,每一个Stage是一个TaskSet, TaskScheduler把Task分发给Worker中的Executor;Worker启动Executor,Executor启动线程池用于执行Task。
![](https://i-blog.csdnimg.cn/blog_migrate/1a847e86042ede521d943538c9109fed.webp?x-image-process=image/format,png)
Spark的计算模型
RDD:弹性分布式数据集,是一种内存抽象,可以理解为一个大数组,数组的元素是RDD的分区Partition,分布在集群上;在物理数据存储上,RDD的每一个Partition对应的就是一个数据块Block,Block可以存储在内存中,当内存不够时可以存储在磁盘上。
![](https://i-blog.csdnimg.cn/blog_migrate/5f31ba7a5b6ec8f8ea23373831e4efdb.webp?x-image-process=image/format,png)
Hadoop将Mapreduce计算的结果写入磁盘,在机器学习、图计算、PageRank等迭代计算下,重用中间结果导致的反复I/O耗时过长,成为了计算性能的瓶颈。为了提高迭代计算的性能和分布式并行计算下共享数据的容错性,伯克利的设计者依据两个特性而设计了RDD:
1、数据集分区存储在节点的内存中,减少迭代过程(如机器学习算法)反复的I/O操作从而提高性能。
2、数据集不可变,并记录其转换过程,从而实现无共享数据读写同步问题、以及出错的可重算性。
Operations:算子
算子是RDD中定义的函数,可以对RDD中的数据进行转换和操作。如下图,Spark从外部空间(HDFS)读取数据形成RDD_0,Tranformation算子对数据进行操作(如fliter)并转化为新的RDD_1、RDD_2,通过Action算子(如collect/count)触发Spark提交作业。
如上的分析过程可以看出,Tranformation算子并不会触发Spark提交作业,直至Action算子才提交作业,这是一个延迟计算的设计技巧,可以避免内存过快被中间计算占满,从而提高内存的利用率。
![](https://i-blog.csdnimg.cn/blog_migrate/c35a51d72d0cd8a0ab0e2856f4876204.webp?x-image-process=image/format,png)
下图是算子的列表,分三大类:Value数据类型的Tranformation算子;Key-Value数据类型的Tranformation算子;Action算子。
![](https://i-blog.csdnimg.cn/blog_migrate/bb983bb5628ca1125d067df69f2cabec.webp?x-image-process=image/format,png)
Lineage Graph:血统关系图
下图的第一阶段生成RDD的有向无环图,即是血统关系图,记录了RDD的更新过程,当这个RDD的部分分区数据丢失时,它可以通过Lineage获取足够的信息来重新运算和恢复丢失的数据分区。DAGScheduler依据RDD的依赖关系将有向无环图划分为多个Stage,一个Stage对应着一系列的Task,由TashScheduler分发给Worker计算。
![](https://i-blog.csdnimg.cn/blog_migrate/938bf87c97f5ab4a047a5acfb525f22b.webp?x-image-process=image/format,png)
Spark的工作机制
本模块从六个方面,介绍Spark的内部运行机制。
应用执行机制
Spark应用(Application)是用户提交的应用程序,执行模式有Local、Standalone、YARN、Mesos。根据Application的Driver Program(或者YARN的AppMaster)是否在集群中运行,Spark应用的运行方式又可以分为Cluster模式和Client模式。
Standalone模式
Driver运行在客户端
![](https://i-blog.csdnimg.cn/blog_migrate/70c7a5053423f5189675d1990ce3d6b7.webp?x-image-process=image/format,png)
Driver运行在Worker
![](https://i-blog.csdnimg.cn/blog_migrate/e34a62fe3b0ebcc7db195a33b988ccb0.webp?x-image-process=image/format,png)
YARN模式
![](https://i-blog.csdnimg.cn/blog_migrate/8a6832df7a56b15ecb36ff9e0583ac63.webp?x-image-process=image/format,png)
调度与任务分配
从Spark整体上看,调度可以分为4个级别,Application调度 -> Job调度 -> Stage调度 -> Task调度。
![](https://i-blog.csdnimg.cn/blog_migrate/b361f8b6d0d907c3451799af24742c28.webp?x-image-process=image/format,png)
I/O机制
序列化
块管理
通信机制
Spark在模块间通信使用的是AKKA框架。AKKA基于Scala开发,用于编写Actor应用。Actors是一些包含状态和行为的对象。它们通过显式传递消息来进行通信,这些消息会被发送到它们的收信箱中(消息队列)。
容错机制
Lineage机制:记录粗粒度的更新
Checkpoint机制:将RDD写入Disk做检查点。检查点的本质是作为Lineage做容错的辅助,lineage过长会造成容错成本过高。在计算的中间阶段做检查点容错,如果之后的节点出现问题而丢失分区,从做检查点的RDD开始重做Lineage,就可以减少开销。
Shuffle机制
当单进程空间无法容纳所有计算数据进行计算时,通过Shuffle将各个节点上相同的key拉取到某个节点上的一个task来进行处理,比如按照key进行聚合或join等操作。此时如果某个key对应的数据量特别大的话,就会发生数据倾斜。数据倾斜是Spark性能优化的一个重大课题。
可能会触发shuffle操作的算子 :distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。
Shuffle分为两个阶段:Shuffle Write和Shuffle Fetch。如下图:
![](https://i-blog.csdnimg.cn/blog_migrate/5f4a4fe5587ead22a8673f119d9677c7.webp?x-image-process=image/format,png)