PUE

参考:

http://server.51cto.com/ManageDC-207328.htm

1 定义

反映了数据中心供电有多少被真正用于服务器计算

2 虚拟化的利用
2.1 硬件虚拟化
  • 规模大的企业或IT投资较大的大中型企业才有可能从硬件虚拟化中受益。
  • 而对于IT投资不足的中小型企业,硬件虚拟化带来的效益可能和部署硬件虚拟化带来的成本持平。
2.2 软件虚拟化
  • 可适用于各个层次的企业,具有广泛适用性
  • 对于中小层次企业,性价比高
2.3 提高硬件利用率
  • x86服务器环境中,Windows和Linux服务器利用率一般低于CPU资源的15%;很多UNIX服务器只利用了15~25%;服务器有75~90%的时间在消耗电源和冷却资源,却不完成任何工作。
  • 虚拟化和合并能力使您能够将多个服务器上的工作负载合并到单个服务器上,使服务器利用率提高到50~70%,并且潜在地以削减的成本在x86和UNIX服务器上完成4到6倍的工作。
3 数据中心设备布局
3.1 机柜摆放

 

将服务器机柜面对面或背对背的方式摆放,在机柜前设出风口,使之形成“冷”通道和“热”通道。
这样机柜之间的冷风和热风就不会混合在一起形成短路气流,将提高制冷效果。

3.2 IT设备摆放

 

3.3 最大限度提高冷却效率

由于“气流损失”,也就是“旁路气流”导致数据中心冷去的冷空气有60%都被浪费了

  • 1  空调机与机柜排垂直摆放且避开冷通道。当功率密度高时,空调机应分散安装。
  • 2 在高功率密度数据中心,应该适当铺活动地板和调节出风口的出风速度。增加静压在总压中的比例,使冷风在地板下均匀分布。再通过送风口上设置的风量调节阀,调节每个机柜前风口地板的通风面积和风速,从而达到机柜需求供给合适的风量,以此提高空调的效率。
  • 3 可在空调机顶部安装回风道,并在热通道上方设置回风口。可以更有效地减少热空气回流,使机房内上下温度平均。

德国慕尼黑大学的国家超级计算机HLRB-II数据中心

4 增强设备电力管理提高PUE效率

PUE值=制冷能效因子+供电能效因子+IT设备能效   IT设备能效等于1时,降低PUE值最有效方法是降低制冷能效因子和供电能效因子。

4.1 降低供电能效因子
4.1.1 背景:

包括ATS开关损耗、低压配电系统损耗、供电电缆损耗和UPS系统损耗。统计数据表明出了UPS系统损耗外,其他损耗值大约为0.02,所以降低UPS系统损耗是关键。

在数据中心里,即使服务器在空闲时也会消耗峰值的75%-80%,使用电源管理软件适时关闭和开启空闲服务器可降低能源峰值的45%,但是应用在需要不间断工作的系统中,很多人关注服务器再启动的响应时间问题

4.1.2 方法:
  • 1 取消高昂而耗能的隔离变压器,自试点入户变压器后,所有供电设备环节不再采用工频隔离变压器
  • 2 供电回路上,服务器工作电源是能耗最高节点,效率仅为70%-75%。未开可能采用高压直流技术(380V直流系统),大大减少供电系统损耗。
4.2 减少制冷能效因子
4.2.1 背景:
  • 1 数据中心所需制冷量需要与IT负载热容量匹配,可随IT设备的散热量调节制冷容量和风速,消除不必要的冷量和空气循环来提高制冷系统效率。
  • 2 在高热密度的数据中心里,可让冷风更接近热源,可也有效减少制冷损耗。
  • 3 一个设计与运营良好的数据中心,在空调系统配置正确,不考虑照明、新风机等设备情况下,能效比应该是小于1.6。
4.2.2 现在:

数据中心客户开始关注节能与效率,目前运行的数据中心PUE基本在2~2.5范围内,
新设计的数据中心客户PUE指标倾向于1.8~1.6之间,并且大的客户已经开始在标书中要求采用美国流行的能效评定模型PUE指标设计。

5 数据中心效率发展趋势
  • 1 IT设备刀片化、虚拟化,减少服务器数量,以降低服务器能耗
  • 2 采用直流供电技术,大幅度提高供电效率
  • 3 使用液体制冷技术,让冷源更接近热源,减少空气对流散热
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值