Yarn——基础概念

1、Yarn 资源调度器

Yarn 是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而 MapReduce 等运算程序则相当于运行于操作系统之上的应用程序。

2、Yarn的基础框架

YARN 主要由 ResourceManagerNodeManagerApplicationMasterContainer 等组件构成。

Yarn组成

  • ResourceManager(RM)主要作用如下

    • 处理客户端请求
    • 监控NodeManager
    • 启动或监控ApplicationMaster
    • 资源的分配与调度
  • NodeManager(NM)主要作用如下

    • 管理单个节点上的资源
    • 处理来自ResourceManager的命令
    • 处理来自ApplicationMaster的命令
  • ApplicationMaster(AM)作用如下

    • 为应用程序申请资源并分配给内部的任务
    • 任务的监控与容错
  • Container

    ContainerYARN中的资源抽象,它封装了某个节点上的多维度资源,如内存、CPU、磁盘、网络等。

3、Yarn的工作机制

在这里插入图片描述

  • MR 程序提交到客户端所在的节点。
  • YarnRunnerResourceManager 申请一个 Application
  • RM 将该应用程序的资源路径返回给 YarnRunner
  • 该程序将运行所需资源提交到 HDFS 上。
  • 程序资源提交完毕后,申请运行 mrAppMaster
  • RM 将用户的请求初始化成一个 Task
  • 其中一个 NodeManager 领取到 Task 任务。
  • NodeManager 创建容器 Container,并产生MRAppmaster
  • ContainerHDFS 上拷贝资源到本地。
  • MRAppmasterRM 申请运行 MapTask 资源。
  • RM 将运行 MapTask 任务分配给另外两个NodeManager,另两个 NodeManager 分别领取任务并创建容器。
  • MR 向两个接收到任务的 NodeManager 发送程序启动脚本,这两个 NodeManager分别启动MapTaskMapTask 对数据分区排序。
  • MrAppMaster等待所有MapTask运行完毕后,向RM申请容器,运行ReduceTask
  • ReduceTaskMapTask 获取相应分区的数据。
  • 程序运行完毕后,MR 会向 RM 申请注销自己。

4、作业全提交过程

4.1、HDFS、YARN、MapReduce三者关系

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1JwMLuI3-1692930148947)(https://secure2.wostatic.cn/static/9Xa6H6DAKkd7JjdXCXoLgW/1690768287002.png?auth_key=1692930095-xftT72mjD9XKDCjwwAedn4-0-27928e4470b02d818119fb41eabb2caa)]

4.2、作业提交过程之YARN

在这里插入图片描述

4.3、作业提交过程之HDFS & MapReduce

  • 作业提交

    • 第 1 步:Client 调用 job.waitForCompletion 方法,向整个集群提交 MapReduce 作业。
    • 第 2 步:ClientRM 申请一个作业 id
    • 第 3 步:RMClient返回该 job 资源的提交路径和作业 id
    • 第 4 步:Client 提交 jar 包、切片信息和配置文件到指定的资源提交路径。
    • 第 5 步:Client 提交完资源后,向 RM 申请运行 MrAppMaster
  • 作业初始化

    • 第 6 步:当 RM 收到Client 的请求后,将该 job 添加到容量调度器中。
    • 第 7 步:某一个空闲的 NM 领取到该 Job
    • 第 8 步:该 NM 创建 Container,并产生 MRAppmaster
    • 第 9 步:下载 Client 提交的资源到本地。
  • 任务分配

    • 第 10 步:MrAppMasterRM 申请运行多个 MapTask 任务资源。
    • 第 11 步:RM 将运行 MapTask 任务分配给另外两个 NodeManager,另两个 NodeManager
      分别领取任务并创建容器。
  • 任务运行

    • 第 12 步:MR 向两个接收到任务的 NodeManager 发送程序启动脚本,这两个NodeManager分别启动 MapTaskMapTask 对数据分区排序。
    • 第13步:MrAppMaster等待所有MapTask运行完毕后,向RM申请容器,运行ReduceTask
    • 第 14 步:ReduceTaskMapTask 获取相应分区的数据。
    • 第 15 步:程序运行完毕后,MR 会向 RM 申请注销自己。
  • 进度和状态更新

    YARN 中的任务将其进度和状态(包括 counter)返回给应用管理器, 客户端每秒(通过
    mapreduce.client.progressmonitor.pollinterval 设置)向应用管理器请求进度更新, 展示给用户。

  • 作业完成

    除了向应用管理器请求作业进度外, 客户端每 5 秒都会通过调用 waitForCompletion()来检查作业是否完成。时间间隔可以通过 mapreduce.client.completion.pollinterval 来设置。作业完成之后, 应用管理器和 Container会清理工作状态。作业的信息会被作业历史服务器存储以备之后用户核查。

5、Yarn 调度器和调度算法

Hadoop 作业调度器主要有三种:FIFO、容量(Capacity Scheduler)和公平(Fair Scheduler)。Apache Hadoop3.1.3 默认的资源调度器是 Capacity Scheduler

CDH 框架默认调度器是 Fair Scheduler。

<!-- yarn-default.xml-->
<property>
	<description>The class to use as the resource scheduler.</description>
	<name>yarn.resourcemanager.scheduler.class</name>
	<value>org.apache.hadoop.yarn.server.resourcemanager.
		scheduler.capacity.CapacityScheduler</value>
</property>

5.1、先进先出调度器(FIFO)

FIFO 调度器(First In First Out):单队列,根据提交作业的先后顺序,先来先服务。

在这里插入图片描述

  • 优点: 简单易懂;

  • 缺点: 不支持多队列,生产环境很少使用。

5.2、容量调度器(Capacity Scheduler )

Capacity SchedulerYahoo 开发的多用户调度器。

  • 多队列: 每个队列可配置一定的资源量,每个队列采用FIFO调度策略;
  • 容量保证: 管理员可为每个队列设置资源最低保证和资源使用上限;
  • 灵活性: 如果一个队列中的资源有剩余,可以暂时共享给那些需要资源的队列,而一旦该队列有新的应用程序提交,则其他队列借调的资源会归还给该队列;
  • 多租户: 支持多用户共享集群和多应用程序同时运行。为了防止同一个用户的作业独占队列中的资源,该调度器会对同一用户提交的作业所占资源量进行限定。

5.3、容量调度器资源分配算法

在这里插入图片描述

  • 队列资源分配

    • root开始,使用深度优先算法,优先
    • 选择资源占用率最低的队列分配资源。
  • 作业资源分配

    • 默认按照提交作业的优先级和提交时间顺序分配资源。
  • 容器资源分配

    按照容器的优先级分配资源;
    如果优先级相同,按照数据本地性原则:

    • 任务和数据在同一节点

    • 任务和数据在同一机架

    • 任务和数据不在同一节点也不在同一机架

5.4、公平调度器(Fair Scheduler)

在这里插入图片描述

  • 与容量调度器相同点
    • 多队列: 支持多队列多作业
    • 容量保证: 管理员可为每个队列设置资源最低保证和资源使用上线
    • 灵活性: 如果一个队列中的资源有剩余,可以暂时共享给那些需要资源的队列,而一旦该队列有新的应用程序提交,则其他队列借调的资源会归还给该队列。
    • 多租户: 支持多用户共享集群和多应用程序同时运行;为了防止同一个用户的作业独占队列中的资源,该调度器会对同一用户提交的作业所占资源量进行限定。
  • 与容量调度器不同点
    • 核心调度策略不同
      容量调度器: 优先选择资源利用率低的队列
      公平调度器: 优先选择对资源的缺额比例大的
    • 每个队列可以单独设置资源分配方式
      容量调度器: FIFODRF
      公平调度器: FIFOFAIRDRF

5.4.1、公平调度器——缺额

  • 公平调度器设计目标是:在时间尺度上,所有作业获得公平的资源。某一时刻一个作业应获资源和实际获取资源的差距叫“缺额”;
  • 调度器会优先为缺额大的作业分配资源。

5.4.2、公平调度器队列资源分配方式

  • FIFO 策略: 公平调度器每个队列资源分配策略如果选择FIFO的话,此时公平调度器相当于上面讲过的容量调度器。
  • Fair 策略:Fair 策略(默认)是一种基于最大最小公平算法实现的资源多路复用方式,默认情况下,每个队列内部采用该方式分配资源。这意味着,如果一个队列中有两个应用程序同时运行,则每个应用程序可得到1/2的资源;如果三个应用程序同时运行,则每个应用程序可得到1/3的资源。

在这里插入图片描述

5.4.3、公平调度器资源分配算法

在这里插入图片描述

队列资源分配

需求: 集群总资源100,有三个队列,对资源的

需求分别是:
queueA-> 20, queueB ->50, queueC -> 30

第一次算:100 / 3 = 33.33
queueA:分33.33 → 多13.33
queueB:分33.33 → 少16.67
queueC:分33.33 → 多3.33

第二次算: (13.33 + 3.33)/ 1 = 16.66
queueA:分20
queueB:分33.33 + 16.66 = 50
queueC:分30

5.4.4、公平调度器队列资源分配方式

作业资源分配
**(a)不加权 (是关注点是Job 的个数):**
**需求:**有一条队列总资源12个, 有4个job,对资源的
需求分别是:
job1->1, job2->2 , job3->6, job4->5
第一次算: 12 / 4 = 3
job1: 分3 --> 多2个
job2: 分3 --> 多1个
job3: 分3 --> 差3个
job4: 分3 --> 差2个
第二次算: 3 / 2 = 1.5
job1: 分1
job2: 分2
job3: 分3 --> 差3个 --> 分1.5 --> 最终: 4.5
job4: 分3 --> 差2个 --> 分1.5 --> 最终: 4.5
第n次算: 一直算到没有空闲资源

**(b)加权(关注点是Job的权重):**
**需求:**有一条队列总资源16,有4个job
对资源的需求分别是:
job1->4 job2->2 job3->10 job4->4
每个job 的权重为:
job1->5 job2->8 job3->1 job4->2
第一次算: 16 / (5+8+1+2) = 1
job1: 分5 --> 多1
job2: 分8 --> 多6
job3: 分1 --> 少9
job4: 分2 --> 少2
第二次算: 7 / (1+2) = 7/3
job1: 分4
job2: 分2
job3: 分1 --> 分7/3(2.33) -->少6.67
job4: 分2 --> 分14/3(4.66) -->多2.66
第三次算:2.66/1=2.66
job1: 分4
job2: 分2
job3: 分1 --> 分2.66/1 --> 分2.66
job4: 分4
第n次算: 一直算到没有空闲资源

5.4.5、DRF策略

DRF(Dominant Resource Fairness),我们之前说的资源,都是单一标准,例如只考虑内存(也是Yarn默认的情况)。但是很多时候我们资源有很多种,例如内存,CPU,网络带宽等,这样我们很难衡量两个应用应该分配的资源比例。

问: 那么在YARN中,我们用DRF来决定如何调度:

答: 假设集群一共有100 CPU和10T 内存,而应用A需要(2 CPU, 300GB),应用B需要(6 CPU,100GB)。则两个应用分别需要A(2%CPU, 3%内存)和B(6%CPU, 1%内存)的资源,这就意味着A是内存主导的, B是CPU主导的,针对这种情况,我们可以选择DRF策略对不同应用进行不同资源(CPU和内存)的一个不同比例的限制。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值