05 | 哪朵云飘得快?关于云效率的讨论

在这里插入图片描述
在这里插入图片描述
首先,我们要知道到底“效率”指的是什么?

在这里效率是指云数据中心中的IT设备的资源利用率,其中最具有指标性的就是综合CPU利用率。当然,如果把内存、网络、存储等因素都考虑进来会更全面,但为了讨论简便,我们在本小节着重讨论CPU的资源利用率。
那么,公有云 PK 私有云,谁的CPU的资源利用率更高?请看以下几组数据:
目前市场上主流的公有云、私有云的平均服务器主机CPU利用率比较
图中的数据可以清晰地说明公有云的CPU平均利用率远低于私有云,甚至业界翘楚亚马逊的AWS和微软的Azure都只有10%上下【注释1】,相当于每10台服务器只有一台在满负荷运转,而另外9台在空转,而同比私有云环境下的谷歌可以达到30%利用率,更有甚者EMC旗下的Virtustream甚至能达到惊人的70%。

究其原因,公有云较低的IT资源利用率的成因是公有云业务场景的多样化与负载高度不可预知性:

当CPU资源在被分配给某用户后,如果没有被该用户充分利用,就会存在CPU空转,进而造成事实上的浪费。同样的问题也存在于其他资源分配上,例如网络带宽、磁盘空间等。这是基于时间共享(Time-Sharing)“虚拟化”的必然结果。类似的基于时间共享的技术应用还有很多,比如蜂窝电话网络。时间共享的原本设计原则就是“公平分配”以确保给服务对象平均分配资源,每个被服务对象在单位时间内可获取同样多的资源,但平均主义也会造成在均分资源后因资源被闲置、空转而形成的事实浪费。

知识加油站:

在数据中心中,我们习惯用PUE(Power Utilization Efficiency)来表示电力资源的利用率,它的计算公式:
在这里插入图片描述
事实上全球范围内的各种云机房平均PUE>2,而最先进的机房如谷歌和Facebook几乎可以达到PUE=1.1甚至1.06,相当惊人的高效电能利用。有鉴于此,中国2013年开始要求新建的数据中心PUE<1.5,原有改造的数据中心PUE<2。

在这里插入图片描述
如何提高云数据中心的资源利用率呢?

从数据中心能耗分布整体而言,每在云主机服务器组件(尤其是CPU)消耗1W,在不间断电源、空调制冷以及配电箱、变压器等其他设备就会连带消耗1.84W。反之,如果能让CPU少消耗1W,会为整个数据中心节能2.84W。这种瀑布流式的“级联”的效应我们称之为Cascade Effect5(叶栅效应、级联效应)。

在这里插入图片描述
现在我们知道提高效率的核心是提高CPU的利用率或者降低单位时间内整体CPU的能耗。这两个方向的最终目的是一致的。

绝大多数数据中心在提高资源利用率、降低能耗的过程中有两种不同的路径:

(1)供给侧(Supply-Side)优化;
(2)需求侧(Demand-Side)优化。

知识加油站:
供给方优化
供给方优化并非是本系列要关注的重点,不过为了全面起见,在此略作介绍。

供给方优化可以从以下几个方面来实施:

(1)IDC供电与发电优化:

a.围绕储能系统的效率优化;
b.围绕IDC发电环节的优化。

(2)IDC机房温度控制优化:

a.制冷优化;
b.空气流动优化。

数据中心里,市电是先通过交流到直流转换来对储能系统充电,储能系统最常见的是UPS电池或飞轮。
IDC储能技术分类
上图列出了储能系统的三大类,最常见的是电化学储能方式,即我们常说的UPS电池系统,机械储能系统也经常被用到,电磁储能较少见,但未来如果相关技术有所突破,在储能效率上也会相应提高,UPS再把直流电转换为交流电对电源分配单元(PDU)供电,在这个二元连续(AC→DC→AC)的转换过程中电力存在损耗以及生成大量废热需要制冷系统工作来降温,结合图前面的图可知在供电与制冷环节耗费的电力占整个数据中心能耗的10%~47%之多。

在这里插入图片描述

如何提高UPS系统效率甚至是找到UPS替代方案是业界的主要努力方向。

谷歌的经验是采用分布式UPS及电池系统直接对服务器机柜进行交流供电,在此过程中仅需要一次交流到直流转换,由此达到了99.9%的UPS效率,远高于业界平均的80%~90%。其他常见的做法还有提高UPS到PDU电压、更新升级UPS电池系统或直接对服务器进行高压直流输电等。

UPS替代方式也越来越受到业界的重视。例如使用燃料电池技术或智能电源虚拟化技术等,它们的一个共性是在整个供电过程中不再需要UPS、PDU和变压器单元,开关设备也变得简单。

使用软件定义的电源技术前后数据中心配电系统的变化(如下图所示)
软件定义的电源控制技术

在数据中心中有严格的温度与湿度控制来保证IT设备在最优环境下发挥性能。最新的数据中心以及改造的数据中心中通常都会对冷热气流管理(见下图所示):
IDC冷热气流管理

例如冷通道、热通道交替排列(见下图所示):
服务淇机柜冷热通道交替排列

例如规范布线(见下图所示)
在这里插入图片描述

【注释1】IEEE/ACM CCGrid 2016 - Improving Resource Utilization in a Large-scale Public Cloud by Xiaotao Chang, Kun Wang, Yan Guo, Xiao Mu, Mike Fischer and Zhen Liu

·END·
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值