Yarn架构、工作流程、调度

Yarn架构

ResourceManager(RM)

负责对各NM上的资源进行统一管理和调度。将AM分配空闲的Container运行并监控其
运行状态。对AM申请的资源请求分配相应的空闲Container。主要由两个组件构成:调度器和应用程序管理器。

调度器(Scheduler)

调度器根据容量、队列等限制条件(如每个队列分配一定的资源,最多执行一定数量的作
业等),将系统中的资源分配给各个正在运行的应用程序。调度器仅根据各个应用程序的资源需求进行资源分
配,而资源分配单位是Container,从而限定每个任务使用的资源量。Shceduler不负责监控或者跟踪应用程序的
状态,也不负责任务因为各种原因而需要的重启(由ApplicationMaster负责)。总之,调度器根据应用程序的资
源要求,以及集群机器的资源情况,为应用程序分配封装在Container中的资源。
调度器是可插拔的,例如CapacityScheduler、FairScheduler。

应用程序管理器(Applications Manager)

应用程序管理器负责管理整个系统中所有应用程序,包括应用程序提交、与调度器协商资源以启动AM、监控AM运行状态并在失败时重新启动等,跟踪分给的Container的进度、状态也是其职责。

NodeManager(NM)

NM是每个节点上的资源和任务管理器。它会定时地向RM汇报本节点上的资源使用情况和
各个Container的运行状态;同时会接收并处理来自AM的Container 启动/停止等请求。

Container

是YARN中的资源抽象,它封装了某个节点上的多维度资源,如内存、CPU、磁盘、网络等,当AM向RM申请资源时,RM为AM返回的资源便是用Container 表示的。 YARN会为每个任务分配一个Container且该任务只能使用该Container中描述的资源。

ApplicationMaster(AM)

用户提交的应用程序均包含一个AM,负责应用的监控,跟踪应用执行状态,重启失败任务等。ApplicationMaster是应用框架,它负责向ResourceManager协调资源,并且与NodeManager协同工作完成Task的执行和监控。
MapReduce就是原生支持的一种框架,可以在YARN上运行Mapreduce作业。有很多分布式应用都开发了对应的应用程序框架,用于在YARN上运行任务,例如Spark,Storm等。

工作流程

在这里插入图片描述

总结:
启动主程序,领取资源:1-4
运行任务,直到完成: 5-9

  1. Client向 RM提交应用程序(作业),其中包括ApplicationMaster程序、启动命令、用户程序等。

  2. RM的Applications Manager为该应用程序分配第一个Container,并与所在的NodeManager通信,要求它在这个Container中运行这个ApplicationMaster。

  3. ApplicationMaster启动后首先向ResourceManager注册,这样用户可以通过ResourceManage查看作业的运行状态(web界面可查看),直到运行结束。

  4. ApplicationMaster开始运行任务,采用轮询的方式通过RPC协议向ResourceManager申请和领取资源。(哪台NM机器,领取多少container(内存 CPU))


  1. ApplicationMaster申请到资源后,便与对应的NM通信,要求启动Container来运行task任务。

  2. NM为task任务设置好运行的环境(Container容器),将任务启动命令写在脚本里,通过脚本启动task任务。

  3. 各个task任务通过RPC协议向ApplicationMaster汇报自己的状态和进度,以让ApplicationMaster随时掌握各个任务的运行状态,从而可以在任务失败时重新启动任务。
    Client也可随时通过RPC向ApplicationMaster查询应用程序的当前运行状态。

  4. 应用程序运行完成后,ApplicationMaster向ResourceManager注销并关闭自己。

这个时候在web可以看任务是否完成,成功还是失败。
在这里插入图片描述

三种调度器

FIFO 调度:大任务在前,小任务也要等大任务结束后才能运行,等待很久。
Capacity 调度:有一个专门的队列预留给小任务,没有小任务时存在资源浪费。
Fair 调度:动态分配的。第二个任务提交后,会有一定延迟才能获取到资源,因为需要等待第一个任务释放占用的container。

调度器

资源管理

  • 资源管理由ResourceManager和NodeManager共同完成,其中,ResourceManager中的调度器负责资源的分配,而NodeManager则负责资源的供给和隔离。

  • NodeManager需按照要求为任务提供相应的资源,保证这些资源应具有独占性,为任务运行提供资源隔离。

  • YARN允许用户配置每个节点上可用的物理内存资源,注意,这里是“可用的”,因为一个节点上的内存会被若干个服务共享,比如一部分给YARN,一部分给HDFS,一部分给HBase等,YARN配置的只是自己可以使用的,配置参数如下:

(1)yarn.nodemanager.resource.memory-mb
表示该节点上YARN可使用的物理内存总量,默认是8192(MB),注意,如果你的节点内存资源不够8GB,
则需要调减小这个值,而YARN不会智能的探测节点的物理内存总量。
(2)yarn.nodemanager.vmem-pmem-ratio
任务每使用1MB物理内存,最多可使用虚拟内存量,默认是2.1。
(3) yarn.nodemanager.pmem-check-enabled
是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true。
(4) yarn.nodemanager.vmem-check-enabled
是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true。
(5)yarn.scheduler.minimum-allocation-mb
单个任务可申请的最少物理内存量,默认是1024(MB),如果一个任务申请的物理内存量少于该值,则该对应的值改为这个数。
(6)yarn.scheduler.maximum-allocation-mb
单个任务可申请的最多物理内存量,默认是8192(MB)。

  • 默认情况下,YARN采用了线程监控的方法判断任务是否超量使用内存,一旦发现超量,则直接将其杀死。
  • 由于Cgroups对内存的控制缺乏灵活性(即任务任何时刻不能超过内存上限,如果超过,则直接将其杀死或报OOM),而Java进程在创建瞬间内存将翻倍,之后骤降到正常值,这种情况下,采用线程监控的方式更加灵活(当发现进程树内存瞬间翻倍超过设定值时,可认为是正常现象,不会将任务杀死),因此YARN未提供Cgroups内存隔离机制。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值