Spark基础(三)Spark中的任务执行

Spark基础(三)Spark中的任务执行

Spark的任务调度

Driver的工作

在这里插入图片描述

1、JAR==》DAG
根据客户端提交的jar包划分出来一个个的RDD,根据RDD之间的lineage关系划分DAG。划分DAG的目的是为了划分stage。

2、DAG通过DAGScheller划分为stage===》再划分为taskSet
根据划分出来的DAG,将DAG送个DAGScheduler,接收到DAG之后划分stage,根据stage划分taskSet。

3、将taskSet通过TaskScheduler划分为task

4、task放到executor执行
task分解出来之后,driver与worker进行通讯,将task放到executor中执行。

容错机制

一个application中包含多个job,调用一次action算子,就是一个job。如果rdd的数据要进行修复,可以将rdd数据进行缓存,使用cache或者persist保存到内存或者磁盘中。

但是内存或者磁盘会损坏或者丢失。这时需要将一些比较珍贵的RDD(例如shuffle之后的RDD)通过checkpoint机制进行容错。将数据进行输出到文件中进行存储。可以使用hdfs。

在checkpoint执行之后,已经不再依赖之前的RDD因此与之前RDD的血缘关系已经不存在。

Spark的架构特点

  • 每个Application获取专属的executor进程**(每个executor运行在work节点上。每个executor又对应了不同的task中)**,该进程在Application期间一直驻留,并以多线程方式运行tasks。
  • Spark任务与资源管理器无关,只要能够获取executor进程,并能保持相互通信就可以了。
  • 提交SparkContext的Client应该靠近Worker节点(运行Executor的节点),最好是在同一个Rack里,因为Spark程序运行过程中SparkContext和Executor之间有大量的信息交换;如果想在远程集群中运行,最好使用RPC将SparkContext提交给集群,不要远离Worker运行SparkContext。
  • Task采用了数据本地性和推测执行的优化机制。

Job、Stage、Task的对应关系如下:
在基于RDD计算时,Task的数量 = RDD的分区数。
在这里插入图片描述

在这里插入图片描述
一个Spark应用同时执行的任务数 = 用于执行任务的Executor数 * 每个Executor的核数。

在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值