Spark介绍以及相关概念

学习Spark,有几个重要的术语需要弄清楚。

1. Application

用户在spark上构建的程序,包含了driver程序以及集群上的executors(driver以及不同的executors可能在不同的物理机上).

2. Driver Program

运行main函数并且创建SparkContext的程序(关于dirver到底是什么在后面的博客有介绍)。客户端的应用程序,Driver Program类似于hadoop的wordcount程序的main函数。

3. Cluster Manager

集群的资源管理器,在集群上获取资源的外部服务。spark自带的有资源管理器,在standalone模式下使用,也可以依赖于外部的资源管理器,比如Mesos,yarn 

拿Yarn举例,客户端程序会向资源管理器比如Yarn申请计算我这个任务需要多少的内存,多少CPU,然后Cluster Manager告诉driver可哪些资源以使用,然后driver就可以把程序送到每个Worker Node上面去执行了。

4. Worker Node

集群中任何一个可以运行spark应用代码的节点(既物理节点,比如集群中的一台电脑),可以在上面启动Executor进程。

5. Executor

在每个WorkerNode上为某应用启动的一个进程,该进程负责运行任务,并且负责将数据存在内存或者磁盘上,每个任务都有各自独立的Executor。 

Executor是一个执行Task的容器。它的主要职责是:

初始化程序要执行的上下文SparkEnv,解决应用程序需要运行时的jar包的依赖,加载类。

同时还有一个ExecutorBackend向cluster manager汇报当前的任务状态,这一方面有点类似hadoop的tasktracker和task。 

总结:Executor是一个应用程序运行的监控和执行容器。

6.Job

包含很多task的并行计算,可以认为是Spark RDD 里面的action,每个action的计算会生成一个job。用户提交的Job会提交给DAGScheduler,Job会被分解成Stage和Task。

7. Stage

一个Job会被拆分为多组Task,每组任务被称为一个Stage就像Map Stage, Reduce Stage。 

Stage的划分在RDD的文章中有详细的介绍,简单的说是以shuffle和result这两种类型来划分。在Spark中有两类task,一类是shuffleMapTask,一类是resultTask,第一类task的输出是shuffle所需数据,第二类task的输出是result,stage的划分也以此为依据,shuffle之前的所有变换是一个stage,shuffle之后的操作是另一个stage。stage的边界就是产生shuffle的地方

8.Task

被送到executor上的工作单元。 

Spark上分为2类task。 

1.shuffleMapTask:对不同的partition进行重组,形成款依赖关系,shuffleMapTask是不同stage的中间过渡

2.resultTask:一个job中最后一个task,这个task的结果提交到下一个job中

9.PartitionPartition类似hadoop的Split,计算是以partition为单位进行的,当然partition的划分依据有很多,这是可以自己定义的,像HDFS文件,划分的方式就和MapReduce一样,以文件的block来划分不同的partition。总而言之,Spark的partition在概念上与hadoop中的split是相似的,提供了一种划分数据的方式。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值