Spark大数据处理学习笔记 2.3

本文是Spark大数据处理的学习笔记,涵盖了Executor(执行器)、Task(任务)、Job(作业)和Stage(阶段)的基本概念,以及Spark集群运行架构和运行流程,包括资源申请、Executor启动、Task调度和注销等关键步骤。
摘要由CSDN通过智能技术生成

目录

一、基本概念

(一)Executor(执行器)

(二)Task(任务)

(三)Job(作业)

(四)Stage(阶段)

二、Spark集群运行架构

 三、Spark运行基本流程

 步骤1、注册并申请资源

步骤2、分配资源

步骤3、资源反馈

步骤4、Executor发现注册

步骤5、提交Task

步骤6、注销


一、基本概念

(一)Executor(执行器)

  • 在集群工作节点上为某个应用启动的工作进程,该进程负责运行计算任务,并为应用程序存储数据。

(二)Task(任务)

  • 运行main()方法并创建SparkContext的进程

(三)Job(作业)

  • 一个并行计算作业,由一组任务组成,并由Spark的行动算子(如:save、collect)触发启动。

(四)Stage(阶段)

  • 每个Job可划分为更小的Task集合,每组任务被称为Stage。

二、Spark集群运行架构

  • Spark运行架构主要由SparkContext、Cluster Manager和Worker组成,其中Cluster Manager负责整个集群的统一资源管理,Worker节点中的Executor是应用执行的主要进程,内部含有多个Task线程以及内存空间,通过下图深入了解Spark运行基本流程。

 在这里插入图片描述

  •  Spark有多种运行模式,可以运行在一台机器上,称为本地(单机)模式,也可以以YARN或Mesos作为底层资源调度系统以分布式的方式在集群中运行,称为Spark On YARN模式,还可以使用Spark自带的资源调度系统,称为Spark Standalone模式。
  • 本地模式通过多线程模拟分布式计算,通常用于对应用程序的简单测试。本地模式在提交应用程序后,将会在本地生成一个名为SparkSubmit的进程,该进程既负责程序的提交,又负责任务的分配、执行和监控等。
     

 三、Spark运行基本流程

  •  Spark应用在集群上作为独立的进程组来运行,具体运行流程如下图所示

在这里插入图片描述 

 步骤1、注册并申请资源

  • 当一个Spark应用被提交时,根据提交参数创建Driver进程,Driver进程初始化SparkContext对象,由SparkContext负责和Cluster Manager的通信以及资源的申请、任务的分配和监控等。


步骤2、分配资源

  • Driver进程向Cluster Manager申请资源,Cluster Manager接收到Application的注册请求后,会使用自己的资源调度算法,在Spark集群的Worker节点上,通知Worker为应用启动多个Executor。

步骤3、资源反馈

  • Executor创建后,会向Cluster Manager进行资源及状态的反馈,便于Cluster Manager对Executor进行状态监控,如果监控到Executor失败,则会立刻重新创建。

步骤4、Executor发现注册

  • Executor会向SparkContext反向注册申请Task。

步骤5、提交Task

  • Task Scheduler将Task发送给Worker进程中的Executor运行并提供应用程序代码。

步骤6、注销

  • 当程序执行完毕后写入数据,Driver向Cluster Manager注销申请的资源。
     
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值