Spark运行流程

参考博文:https://blog.csdn.net/qq_17677907/article/details/88685705

Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。

Spark相对于Hadoop的优势

Hadoop虽然已成为大数据技术的事实标准,但其本身还存在诸多缺陷,最主要的缺陷是其MapReduce计算模型延迟过高,无法胜任实时、快速计算的需求,因而只适用于离线批处理的应用场景。

回顾Hadoop的工作流程,可以发现Hadoop存在如下一些缺点:

  1. 磁盘IO开销大。每次执行时都需要从磁盘读取数据,并且在计算完成后需要将中间结果写入到磁盘中,IO开销较大
  2. 延迟高。一次计算可能需要分解成一系列按顺序执行的MapReduce任务,任务之间的衔接由于涉及到IO开销,会产生较高延迟。而且,在前一个任务执行完成之前,其他任务无法开始,难以胜任复杂、多阶段的计算任务。

Spark主要具有如下优点:

  1. Spark的计算模式也属于MapReduce,但不局限于Map和Reduce操作,还提供了多种数据集操作类型,编程模型比MapReduce更灵活;
  2. Spark提供了内存计算,中间结果直接放到内存中,带来了更高的迭代运算效率;
  3. Spark基于DAG的任务调度执行机制,要优于MapReduce的迭代执行机制。

Spark最大的特点就是将计算数据、中间结果都存储在内存中,大大减少了IO开销

Spark提供了多种高层次、简洁的API,通常情况下,对于实现相同功能的应用程序,Spark的代码量要比Hadoop少2-5倍。

但Spark并不能完全替代Hadoop,主要用于替代Hadoop中的MapReduce计算模型。实际上,Spark已经很好地融入了Hadoop生态圈,并成为其中的重要一员,它可以借助于YARN实现资源调度管理,借助于HDFS实现分布式存储。

Spark基本概念

Spark几个重要的概念:

  • RDD:是弹性分布式数据集(Resilient Distributed Dataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型;
  • DAG:是Directed Acyclic Graph(有向无环图)的简称,反映RDD之间的依赖关系;
  • Executor:是运行在工作节点(Worker Node)上的一个进程,负责运行任务,并为应用程序存储数据;
  • 应用:用户编写的Spark应用程序;
  • Task:一个作业包含多个RDD及作用于相应RDD上的各种操作;
  • Stage:是作业的基本调度单位,一个作业会分为多组任务,每组任务被称为“阶段”,或者也被称为“任务集”。

DAG

  • DAG 有向无环图(数据执行过程,有方法,无闭环)

  • DAG描述多个RDD的转换过程,任务执行时,可以按照DAG的描述,执行真正的计算(数据被操作的一个过程)

  • DAG是有边界的:开始(通过SparkContext创建的RDD),结束(触发Action,调用run Job就是一个完整的DAG就形成了,一旦触发Action就形成了一个完整的DAG)
    在这里插入图片描述

  • 一个RDD只是描述了数据计算过程中的一个环节,而DGA由一到多个RDD组成,描述了数据计算过程中的所有环节(过程)

  • 一个Spark Application中是有多少个DAG:一到多个(取决于触发了多少次Action)

Task 和 Stage 之间的关系

以WordCount为例(scala版本):

object WordCount {
	def main(args: Array[String]): Unit = {
		val conf = new SparkConf().setAppName(getClass.getSimpleName).setMaster("local[2]")
		val sc = new SparkContext(conf)
		
		val lines = sc.textFile(args(0))
		val words = lines.flatMap(_.split(" "))
		val wordAndOne = words.map(x => (x,1))
		val reduced = wordAndOne.reduceByKey(_ + _)
		reduced.saveAsTextFile(args(1))

		sc.stop()
		}
}

在这里插入图片描述

  1. sc.textFile(args(0))会从HDFS中读取文件数据,假设HDFS中有两个大小差不多的文件,而RDD有两个分区,那么就是一个分区读取一个文件;这句语句会创建出两个RDD:HadoopRDD和MapPartitionsRDD,HadoopRDD读取数据时会变成KV形式,而MapPartitionsRDD会将KV -> V
  2. flatMap() 和 Map() 都会创建出MapPartitionsRDD
  3. reduceByKey() 会创建ShuffledRDD,在shuffle阶段会有局部聚合和全局聚合两个步骤,局部聚合后会将中间结果存储在磁盘中,而全局聚合之前需要将中间结果读取出来再进行操作。
    shuffle是切分Stage的依据,图中的橙色线切分两个Stage。因为有两个分区所以Stage1和Stage2会各生成两个Task(一个分区一个Task),一共4个Task,一个Task包含多个RDD及作用于相应RDD上的各种操作
  4. saveAsTextFile(args(1))会生成MapPartitionsRDD,写入HDFS时会将V -> KV

Spark运行基本流程

在这里插入图片描述
四个步骤

  1. 构建DAG:调用RDD上的方法
  2. 切分Stage
    DAGScheduler:将一个DAG切分成一到多个Stage,DAGScheduler切分的依据是Shuffle(宽依赖);
    先提交前面的Stage,执行完后再提交后面的Stage;
    Stage会生成Task,一个Stage会生成很多业务逻辑相同的Task,然后Stage中生成的Task以TaskSet的形式给TaskScheduler
  3. 调度Task:TaskScheduler调度Task,将Task序列化,根据资源情况将Task调度到相应的Executor中
  4. 执行Task:Executor接收Task,先将Task反序列化,然后将Task用一个实现了Runnable接口的实现类包装起来,然后将该包装类丢入到线程池中,包装类的run方法就会被执行,进而调用Task的计算逻辑

为什么要切分Stage?

  • 一个复杂的业务逻辑(将多台机器上具有相同属性的数据聚合到一台机器上:shuffle)
  • 如果有shuffle,那么就意味着前面阶段产生的结果后,才能执行下一个阶段,下一个阶段的计算要依赖上一个阶段的数据。
  • 在同一个Stage中,会有多个算子,可以合并在一起,我们称其为pipeline(流水线:严格按照流程、顺序执行)

宽依赖:父RDD的一个分区的数据给了子RDD的多个分区,即使存在这种可能,也是宽依赖(有shuffle阶段的,例如groupByKey)

执行过程全流程(以WordCount为例)

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
ClusterManager:在Standalone模式中即为Master(主节点),控制整个集群,监控Worker。在YARN模式中为资源管理器。 Worker:从节点,负责控制计算节点,启动Executor。在YARN模式中为NodeManager,负责计算节点的控制。 Driver:运行Application的main()函数并创建SparkContext。 Executor:执行器,在worker node上执行任务的组件、用于启动线程池运行任务。每个Application拥有独立的一组Executors。 SparkContext:整个应用的上下文,控制应用的生命周期。 RDD:Spark的基本计算单元,一组RDD可形成执行的有向无环图RDD Graph。 DAG Scheduler:实现将Spark作业分解成一到多个Stage,每个Stage根据RDD的Partition个数决定Task的个数,然后生成相应的Task set放到TaskScheduler中。 TaskScheduler:将任务(Task)分发给Executor执行。 Stage:一个Spark作业一般包含一到多个Stage。 Task:一个Stage包含一到多个Task,通过多个Task实现并行运行的功能。 Transformations:转换(Transformations) (如:map, filter, groupBy, join等),Transformations操作是Lazy的,也就是说从一个RDD转换生成另一个RDD的操作不是马上执行,Spark在遇到Transformations操作时只会记录需要这样的操作,并不会去执行,需要等到有Actions操作的时候才会真正启动计算过程进行计算。 Actions:操作(Actions) (如:count, collect, save等),Actions操作会返回结果或把RDD数据到存储系统中。Actions是触发Spark启动计算的动因。 SparkEnv:线程级别的上下文,存储运行时的重要组件的引用。 SparkEnv内创建并包含如下一些重要组件的引用。 MapOutPutTracker:负责Shuffle元信息的存储。 BroadcastManager:负责广播变量的控制与元信息的存储。 BlockManager:负责存储管理、创建和查找块。 MetricsSystem:监控运行时性能指标信息。 SparkConf:负责存储配置信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值