Yarn 是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而 MapReduce 等运算程序则相当于运行于操作系统之上的应用程序。
文章目录
1. Yarn 基本架构
YARN 主要由 ResourceManager、NodeManager、ApplicationMaster 和 Container 等组件构成,如图所示:
-
ResourceManager (RM)主要作用:
- 处理客户端请求
- 监控 NodeManager
- 启动或者监控 ApplicationMaster
- 资源的分配与调度
-
NodeManager (NM)主要作用:
- 管理单个街道上的资源
- 出来来自 ResourceManager 的命令
- 处理来自 ApplicationMaster 的命令
-
ApplicationMaster (AM)主要作用:
- 负责数据的切分
- 为应用程序申请资源,并分配给内部的任务
- 任务的监控与容错
-
Container
Container 是 YARN 中的资源抽象,它封装了某个节点上的多维度资源,如内存、CPU、磁盘、网络等。
2. Yarn 工作机制
2.1 Yarn 运行机制图解
Yarn 运行机制,如图所示:
2.2 Yarn 运行机制详解
-
MR 程序提交到客户端所在的节点。
-
YarnRunner 向 ResourceManager 申请一个 Application。
-
RM 将该程序的资源路径返回给 YarnRunner。
-
该程序将运行所需资源提交到 HDFS上。
-
程序资源提交完毕后,申请运行 ApplicationMaster (mrAppMaster)。
-
RM 将用户的请求初始化成一个 Task。
-
其中一个 NodeManager 领取到 Task 任务。
-
该 NodeManager 创建容器 Container,并产生 MRAppmaster。
-
Container 从 HDFS 上拷贝资源到本地。
-
MRAppmaster 向 RM 申请运行MapTask资源。
-
RM 将运行 MapTask 任务分配给另外两个 NodeManager,另两个 NodeManager 分别领取任务并创建容器。
-
MR 向两个接收到任务的 NodeManager 发送程序启动脚本,这两个 NodeManager 分别启动 MapTask,MapTask 对数据分区排序。
-
MrAppMaster 等待所有 MapTask 运行完毕后,向 RM 申请容器,运行 ReduceTask。
-
ReduceTask 向 MapTask 获取相应分区的数据。
-
程序运行完毕后,MR会向RM申请注销自己。
3. 作业提交全过程
3.1 作业提交过程之 YARN
Yarn 的工作机制如下图所示:
作业提交过程详解:
-
提交作业
第1步:Client 调用 job.waitForCompletion 方法,向整个集群提交 MapReduce 作业。
第2步:Client 向 RM 申请一个作业id。
第3步:RM 给 Client 返回该 job 资源的提交路径和作业 id。
第4步:Client 提交 jar 包、切片信息和配置文件到指定的资源提交路径。
第5步:Client 提交完资源后,向 RM 申请运行 MrAppMaster。
-
作业初始化
第6步:当 RM 收到 Client 的请求后,将该 job 添加到容量调度器中。
第7步:某一个空闲的 NM 领取到该 Job。
第8步:该 NM 创建 Container,并产生 MRAppmaster。
第9步:下载 Client 提交的资源到本地。
-
任务分配
第10步:MrAppMaster 向 RM 申请运行多个 MapTask 任务资源。
第11步:RM 将运行 MapTask 任务分配给另外两个 NodeManager,另两个 NodeManager 分别领取任务并创建容器。
-
任务运行
第12步:MR 向两个接收到任务的 NodeManager 发送程序启动脚本,这两个 NodeManager 分别启动 MapTask,MapTask 对数据分区排序。
第13步:MrAppMaster 等待所有 MapTask 运行完毕后,向 RM 申请容器,运行 ReduceTask。
第14步:ReduceTask 向 MapTask 获取相应分区的数据。
第15步:程序运行完毕后,MR 会向 RM 申请注销自己。
-
进度和状态更新
YARN 中的任务将其进度和状态(包括 counter )返回给应用管理器, 客户端每秒(通过
mapreduce.client.progressmonitor.pollinterval
设置)向应用管理器请求进度更新, 展示给用户。 -
作业完成
除了向应用管理器请求作业进度外, 客户端每5秒都会通过调用
waitForCompletion()
来检查作业是否完成。时间间隔可以通过mapreduce.client.completion.pollinterval
来设置。作业完成之后, 应用管理器和 Container 会清理工作状态。作业的信息会被作业历史服务器存储以备之后用户核查。
3.2 作业提交过程之 MapReduce
MapReduce 执行过程如下图:
4. 资源调度器
目前,Hadoop 作业调度器主要有三种:FIFO
、Capacity Scheduler
和 Fair Scheduler
。Hadoop2.7.2默认的资源调度器是 Capacity Scheduler
。
具体设置详见:yarn-default.xml
文件
<property>
<description>The class to use as the resource scheduler.</description>
<name>yarn.resourcemanager.scheduler.class</name>
<value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value>
</property>
4.1 先进先出调度器(FIFO)
FIFO 调度器,如下图所示:
4.2 容量调度器(Capacity Scheduler)
容量调度器,如下图所示:
4.3 公平调度器(Fair Scheduler)
5. 任务的推测执行
-
作业完成时间取决于最慢的任务完成时间
一个作业由若干个 Map任务 和 Reduce任务 构成。因硬件老化、软件Bug 等,某些任务可能运行非常慢。
思考:系统中有 99% 的 Map任务 都完成了,只有少数几个 Map 老是进度很慢,完不成,怎么办?
-
推测执行机制
发现拖后腿的任务,比如某个任务运行速度远慢于任务平均速度。为拖后腿任务启动一个备份任务,同时运行。谁先运行完,则采用谁的结果。
-
执行推测任务的前提条件
-
每个Task只能有一个备份任务。
-
当前 Job 已完成的 Task 必须不小于 0.05(5%)。
-
开启推测执行参数设置。
mapred-site.xml
文件中默认是打开的。<property> <name>mapreduce.map.speculative</name> <value>true</value> <description>If true, then multiple instances of some map tasks may be executed in parallel.</description> </property> <property> <name>mapreduce.reduce.speculative</name> <value>true</value> <description>If true, then multiple instances of some reduce tasks may be executed in parallel.</description> </property>
-
-
不能启用推测执行机制情况
-
任务间存在严重的负载倾斜。
-
特殊任务,比如任务向数据库中写数据。
-
-
推测执行算法原理
推测执行算法原理