集群调度技术研究综述

1  引言

什么是调度?个人理解最初的调度是和时间有关的。时间作为唯一的不可逆转的资源,一般是划分为多个时间片来使用(如下图所示)。就计算机而言,由于CPU的速度快的多,所以就有了针对CPU时间片的调度,让多个任务在同一个CPU上运行起来。这是一个假象,某一时刻CPU还是单任务运行的。


后来为了在同一时间进行更多的任务,需要在同一时间内干多件事情。如果多个人或者多个处理器为了完成一个任务目标一起工作,就需要一个协调者。这就是一个分布式系统,就单个数据中心或者小范围来说,就是集群。如果让一个分布式系统运行多个任务,多个任务对分布式系统中的资源必然产生竞争,调度问题发展到资源调度(共享和分配)。

与此同时,多核计算机也发展起来。产生了和分布式系统同样的问题。

本次分享尝试总结单机操作系统,C/S,B/S,P2P,分布式系统,以及网络层中出现的不同调度机制(这些在本文中省略,感兴趣的话我们可以进一步讨论。集群调度只是我想探讨的一部分),重点分析集群调度发展的三个阶段:宏调度,两层调度和状态共享调度,比较了三者之间的优缺点。

2  集群调度

2.1 宏调度Monolithic schedulers MapReduce

宏调度:在同一个代码模块中实现调度策略,单个实例,没有并行。常见于HPC(high-performancecomputing)世界中。


图 1:Hadoop1, MapReduce 的宏调度架构

一个称之为JobTracker 的master 进程是一个所有MapReduce任务的中心调度器(类似于 HPCscheduler sge_qmaster in Grid Engine or pbs_server in Torque)。每一个node上面都运行一个TaskTracker进程来管理各自node上的任务in (类似于 HPC clusters sge_execd in Grid Engine or pbs_momin Torque)。TaskTracker要和master上TaskTracker通信并接受TaskTracker的控制。和大多数资源管理器类似,JobTracker 支持两种调度策略:Capacityand Fair 。

以JobTracker为例,资源的调度和作业的管理功能全部放到一个进程中完成。这种设计方式的缺点是扩展性差:首先,集群规模受限,其次,新的调度策略难以融入现有代码中,比如之前仅支持MapReduce作业,现在要支持流式作业,而将流式作业的调度策略嵌入到中央式调度器中是一项很难的工作。

2.2 静态分区Statically partitionedschedulers

也被成为云计算中的调度,资源集合的全面控制。部署在专门的,静态划分的集群的一个子集上。

或者把集群划分为不同的部分,分别支持不同的行为。

2.3 两层调度Two-level scheduling

为了处理静态分区的问题,一个直接的解决方案就是两层调度。通过引入一个中央的协调组件来决定每一个子集群需要分配的资源数量,从而动态的调整分配给每一个调度器(框架调度器)的资源。

各个框架调度器并不知道整个集群资源使用情况,只是被动的接收资源。Master仅将可用的资源推送给各个框架,而框架自己选择使用还是拒绝这些资源。一旦框架(比如JobTracker)接收到新资源后,再进一步将资源分配给其内部的各个应用程序(各个MapReduce作业),进而实现双层调度。

双层调度器有两个缺点,其一,各个框架无法知道整个集群的实时资源使用情况;其二,采用悲观锁,并发粒度小。

2.3.1 YARN

 YARN被称之为ApacheHadoop Next Generation Compute Platform,是hadoop1和hadoop2之间最大的区别:


Hadoop2(MRv2)的基础思想就是把JobTracker的功能划分成两个独立的进程:全局的资源管理ResourceManager和每个进程的监控和调度ApplicationMaster。 这个进程可以是Map-Reduce 中一个任务或者是DAG中一个任务。

Hadoop2(MRv2)的API是后向兼容的,支持Map-Reduce的任务只需要重新编译一下就可以运行在Hadoop2(MRv2)上。

图 2:YARN 的“两层”调度架构

在YARN的设计中, 集群中可以有多个ApplicationMasters,每一个ApplicationMasters可以有多个Containers (例如,图中有两个ApplicationMasters,红色和蓝色。红色的有三个containers,蓝色的有一个container)。关键的一点是ApplicationMasters 不是ResourceManager的部分,这就减轻了中心调度器的压力,并且,每一个ApplicationMasters都可以动态的调整自己控制的container。

而 ResourceManager 是一个纯粹的调度器(不监控和追踪进程的执行状态,也不负责重启故障的进程),它唯一的目的就是在多个应用之间管理可用的资源(以Containers的粒度)。ResourceManager是资源分配的终极权威。如果说ResourceManager是master,NodeManager就是其slave。ResourceManager并且支持调度策略的插件化:CapacityScheduler 和 FairScheduler就是这样的插件。

ApplicationMaster 负责任务提交,通过协商和谈判从ResourceManager那里以Containers的形式获得资源(负责谈判获得适合其应用需要的Containers)。然后就track进程的运行状态。ApplicationMasters是特定于具体的应用,可以根据不同的应用来编写不同的ApplicationMasters。例如YARNincludes a distributed Shell framework that runs a shell script on multiplenodes on the cluster. 另外,ApplicationMaster 提供自动重启的服务。ApplicationMaster可以理解为应用程序可以自己实现的接口库。

ApplicationMasters请求和管理Containers. Containers指定了一个应用在某一台主机上可以使用多少资源 (包括memory, CPU等) ,这类似于HPC调度中的资源池。 ApplicationMaster一旦从 ResourceManager那里获得资源,它就会联系NodeManager来启动某个特定的任务。例如如果使用 MapReduce 框架,这些任务可能就是mapper 和 reducer 进程。不同的框架会有不同的进程。

NodeManager是每一个机器上框架代理,负责该机上的Containers,并且监控可用的资源(CPU, memory, disk, network)。并且资源状态报告给ResourceManager。

表面上看来,YARN也是一个两层调度。在YARN中,资源请求从application masters发出到一个中心的全局调度器上,中心调度器根据应用的需要在集群中的多个节点上分配资源。但是YARN中的application masters提供的仅仅是一个任务管理服务,并不是一个真正的二层调度器。因此本质上YARN仍旧是一个宏调度架构。截止目前,YARN只支持资源类型(内存)的调度。


图 3:YARN调度层

2.3.2 Mesos

 Mesos,which is an open source platform for fine-grained resource sharing between multiple diverse cluster computing frameworks.

大量分布式计算框架的出现:Hadoop, Giraph, MPI, etc。每一个计算框架管理自己的计算集群。这些应用框架往往把任务分割成很多小任务从而可以提高集群的利用率,让计算靠近数据。但是这些框架都是独立开发的,不可能在应用框架之间共享资源。形象的表示如下:


我们希望在同一个集群上可以运行多个应用框架。Mesos是通过提供一个通用资源共享层,多个不同的应用框架可以运行在这个资源共享层之上。形象的表示如下:

但我们不希望使用简单的静态分区的方法,如下图所示:


Mesos最大的好处就是提高集群的利用率。可以很好的隔离产品环境和实验环境,可以同时并发运行多个框架。其次,可以在多个集群之间共享数据。第三,可以降低Maintenance 成本。Mesos最大挑战是如何支持大量的应用框架。因为每一个框架都有不同的调度需求:编程模型,通信范型,任务依赖和数据放置。另外Mesos的调度系统需要能够扩展到数千个节点,运行数百万个任务。由于集群中的所有任务都依赖于Mesos,调度系统必须是容错和高可用的。

Mesos的设计决策(设计哲学):不采用中心化的,设计周全的(应用需求,可用资源,组织策略),适用于所有任务的全局调度策略。而采用委派调度任务给应用框架(把调度和执行的功能交给应用框架)。Mesos声称:这样的设计策略可能不会达到全局最优的调度,但在实际运行中出奇的好,可以使得应用框架的近乎完美的达到目标。还声称其优点有两个:应用框架的演化独立和保持mesos的简洁。

Mesos的主要组件包括master daemon,slave daemons和在slaves之上运行的mesos applications (也被称为frameworks)。Master根据相应的策略(公平调度,优先级调度等)决定给每一个应用分配多少资源。模块化架构支持多种策略。Resource offer是资源的抽象表示,基于该资源,应用框架可以在集群中的某个node上实例化分配offer,并运行任务。每一个Resource offer 就是一个分布在多个node上的空闲资源列表。Mesos基于一定的算法策略(如公平调度)决定有多少资源可以分配给应用框架,而应用框架决定使用(接受)哪些资源,运行哪些任务。Mesos上运行的应用框架由两部分组成:应用调度器和slave上运行代理。应用调度器向Mesos注册。Master决定向注册的框架提供多少资源,应用调度器决定master分配的资源中哪些来使用。调度完成之后,应用调度器把接受的资源发送给Mesos,从而决定了使用哪些slave。然后应用框架中的任务的执行可以在slave上运行。当任务很小并且是短期任务(每个任务都频繁的让渡自己握着的资源的时),Mesos工作的很好。


在Mesos中,一个中央资源分配器动态的划分集群,分配资源给不同的调度框架(scheduler frameworks)。资源可以在不同的调度框架之间以“offers”的形式任意分配,offers表示了当前可用的资源。资源分配器为了避免不同调度框架对同一资源冲突申请,只允许一次只能分配给一个调度框架。在调度决策的过程中,资源分配器实质上起到了锁的作用。因此Mesos中的并发调度是悲观策略的。

Master使用resource offer机制在多个框架之间细粒度的共享资源。每一个resource offer空闲资源列表,分布在多个slave上。Master决定给每一个应用框架提供多少资源,依据是公平方法或者优先级方法。第三发可以以可插拔模块的方式定制策略。

Reject机制:驳回mesos提供的资源方案。为了保持接口的简单性,Mesos不允许应用框架指定资源需求的限制信息,而是允许应用框架拒绝mesos提供的资源方案。应用框架如果遇到没有满足其需求的资源提供方案,则会拒绝等待。Mesos声称拒绝机制可以支持任意复杂的资源限制,同时保持扩展性和简单。

reject机制带来的一个问题是在应用框架收到一个满足其需求的方案之前可能需要等待很长时间。由于不知道应用框架的需求,mesos可能会把同一个资源方案发给多个应用框架。因此,引入fliter机制:Mesos中的一个调度框架使用filter来描述它期望被服务的资源类型(允许应用框架设置一个filter表示该应用框架会永远的拒绝某类资源)。因此,它不需要访问整个集群,它只需要访问它被offer的节点即可。这种策略带来的缺点是不能支持基于整个集群状态的抢占和策略:一个调度框架不知道分配给其他调度框架的资源。Mesos提供了一种资源储存的策略来支持gang调度。例如,应用框架可以指定一个其可以运行node白名单列表。这不是动态的集群分区吗?Mesos进一步解释filter机制:filter只是一个资源分配模型的性能优化方案,应用框架有哪些任务运行在哪些node上最终决定权。


Mesos任务调度过程:

1.Slave 1 向master汇报它有4个CPUs 和 4 GB的空闲内存,master 的allocation模块会根据相应的分配策略通知framework 1 可以使用所有可用资源。

2. master把slave 1上的可用资源发送给framework 1(以resource offer的方式)。

3.framework的调度器响应master调度器:准备在slave上运行两个任务,使用的资源分别是:第一个任务<2 CPUs, 1 GB RAM> ,第二个任务 <1 CPUs, 2 GB RAM> 。

4.最后,master把任务发送给slave,然后把相应的资源分配给framework的执行器。然后执行器启动两个任务 。由于slave1上还有1 CPU 和1 GB的内存没有分配,分配模块可以把资源分配给framework 2。

另外Mesos master的Allocation module是pluggable。使用ZooKeeper 来实现mesos master的Failover。

Mesos的API:


2.4 状态共享调度Shared-state scheduling

每一个调度器都可以访问整个集群状态。当多个调度器同时更新集群状态时使用乐观并发控制。Shared-state调度可以解决两层调度的两个问题:悲观并发控制所带来的并行限制和调度框架对整个集群资源的可见性。

乐观并发控制所带来的问题是当乐观假设不成立时,需要重新调度。

为了克服双层调度器的以上两个缺点(Omega paper主要关注了这个问题),Google开发了下一代资源管理系统Omega,Omega是一种基于共享状态的调度器,该调度器将双层调度器中的集中式资源调度模块简化成了一些持久化的共享数据(状态)和针对这些数据的验证代码,而这里的“共享数据”实际上就是整个集群的实时资源使用信息。一旦引入共享数据后,共享数据的并发访问方式就成为该系统设计的核心,而Omega则采用了传统数据库中基于多版本的并发访问控制方式(也称为“乐观锁”, MVCC, Multi-Version ConcurrencyControl),这大大提升了Omega的并发性。在Omega中没有中心的资源分配器,调度器自己作出资源分配的决策。

2.4.1 Omega

宏调度的缺点是难以增加调度策略和专门的实现,并且不能随着集群的扩展而扩展。两层调度确实可以提供灵活性和并行性,但是在实践中他们的资源可见性却是保守的。锁算法。难以适应一些挑剔型的任务和一些需要访问整个集群资源的任务。Omega的解决方案是提出了一个新的并行调度框架:基于共享状态的,无锁的,乐观并发控制,实现扩展性和性能扩展性的。

Omega中没有中心的资源分配器,所有的资源分配决策都是由应用的调度器自己完成的。Omega维护了一个成为cell state的资源分配状态信息主拷贝。每一个应用的调度器都维护了一个本地私有的,频繁更新的cell state拷贝,用来做调度决策。调度器可以看到全局的所有资源,并根据权限和优先级来自以为是的要求需要的资源。当调度器决定资源方案时,以原子的方式更新共享的cell state:大多数时候这样commit将会成功(这就是乐观方法)。当冲突发生时,调度决策将会以事务的方式失败。无论调度成功还是失败,调度器都会重新同步本地的cell state和共享的cell state。然后,如果需要,重启调度过程。

Omega的调度器完全是并行的,不需要等待其他调度器。为了避免冲突造成的饥饿,omega调度器使用增量调度——accept all but the conflictthings,这样可以避免资源囤积。如果使用all or nothing 的策略可以使用gang调度(either all tasks of a job are scheduled together, or noneare, and the scheduler must try to schedule the entire job again.)。gang调度要等待所有资源就绪,才commit整个任务,就造成了资源囤积。

每一个应用调度器都可以实现自己的调度策略。但是它们必须就资源分配和任务的优先级达成一致。两层调度中中心资源管理器可以轻松实现这一点。公平性不是一个关键需求,只是满足自己的业务需求。因此,限制每一个应用调度器资源上限和任务提交上限。这里需要讨论一下。


2.5 对比分析

集群调度的主要目标是提高集群的利用率和使用效率。


Monolithicschedulers为所有任务都使用一个中心调度算法。其缺点是不易增加新的调度策略,也不能随着集群的扩展而扩展。

Two-levelschedulers使用一个动态资源管理器提供计算资源或者存储资源给为多个并行的调度框架。每一个调度框架所拥有的都是一个整个资源的一个子集。为什么是一个动态资源管理器呢?是相对于静态的集群分区来说的。我们可以静态的把集群分为几个区,分别服务于不同的应用。上面的动态资源管理器完成工作就是把静态的分区工作动态化。由于两层调度无法处理难以调度的挑剔任务,且不能根据整个集群的状态做出决策,google引入下面的调度架构。

sharedstate schedulers使用无所的乐观并发控制算法。那么对比起来,Two-level schedulers本质上是悲观调度算法。Omega,google的下一代调度系统中使用了该架构。

在omega看来,mesos的offer 的机制本质上是一个动态的过滤机制,这样mesos master向应用框架提供的只是一个资源池的子集。当然可以把这个子集扩大为一个全集,也是share state的,但其接口依然是悲观策略的。这一点可以讨论。

在omega看来,YARN中的applicationmasters提供的仅仅是一个任务管理服务,并不是一个真正的二层调度器。其次到目前为止,YARN只支持一种资源类型。另外,尽管YARN中的application masters可以请求一个特定节点的资源,但是其具体策略是不清晰的。

3  下一步工作

资源感知调度。利用机器学习从历史负载变化中预测资源需求模型,进而指定调度算法。

参考文献

1、 Omega: flexible, scalable schedulers for large compute clusters.

2、 Mesos A Platform for Fine-Grained Resource Sharing in the Data Center.

3、 Apache Hadoop YARN: Yet AnotherResource Negotiator.

4、 Multi-agent Cluster Scheduling for Scalability and Flexibility.

5、http://mesos.apache.org/


  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值