据一家英国网站DatacenterDynamics报道,惠普已经开发出一种面向集装箱式数据中心的“超级冷却系统”。

 

该消息源于惠普最新的简报,配图的介绍内容为“加速推进2011年技术创新,新的冷却技术、PODs、模块化,更高效容量更大,更具可用性”。

DatacenterDynamics首席技术官Stephen Worn表示,从图中可以看出,它由2个20英尺柜背靠背组成,每个集装箱顶部分别有3个直膨式(direct-expansion,Dx)散热冷却口,而且还它拥有超乎常规尺寸的进气口。通过Dx冗余/自适应可以实现超大尺寸的自由进出气口冷却,可以满足超高HPC负荷管理的需要,不过图中的×××管道中流淌的究竟是什么冷却液体,还不清楚。

据称,该冷却系统将会比当前市场上的任何一款冷却系统都要出色。但惠普并没有透露该系统的任何细节,只强调说该系统将完全不同于当前市场上的冷却系统。

此前,惠普集装箱数据中心产品中的冷却系统,设计为在集装箱盖顶上装有4个可变速风扇,每个机柜配置测温感应器,风扇速度可根据每个机柜的实际温度进行调节。

实际上,很多厂商在其集装箱数据中心产品的冷却系统上,都有各自的独特设计。

比如,4月份的2011英特尔信息技术峰会(IDF)上,富士通和英特尔联合推出的“Patent Cloud”集装箱数据中心首次亮相,该数据中心就根据北方气候,进行了特殊设计,如果集装箱数据中心内温度低于25摄氏度,冷却系统将停止制冷而直接将外部冷空气引入室内,形成对流。

 

而在思科刚刚发布的第一个集装箱式数据中心里,也有独特的冷却系统设计——其水冷系统位于集装箱地板的机架下方,利用机柜底部的冷却管使热气流降温,再通过每个机柜背面3个大型的风扇使气流不断地循环,保证整个机柜温度不会过热。

 

此外,充分发挥了思科长项的管理工具(思科数据中心操作360),也帮助用户实时监控机架温度及其他变化因素,并为每个机架设定所需的温度范围,软件可以相应地调节风扇速度和水流大小。

国内产品方面,浪潮4月份发布了Smartcloud云海集装箱数据中心,其冷却系统名为Balance cooling,采用水平循环设计,不仅整个集装箱通过内部的冷热风道隔离,水冷管线和IT设备也完全物理隔离,并设计在集装箱底部,确保了计算单元的均匀冷却,减少了局部热点死角。

 

供应商们经常提供的数据是,由于制冷设计的改进,集装箱数据中心比传统数据中心节省80%的冷却费用。

尽管该数据有一定水分(将高密度的集装箱与低密度的传统数据中心比较有失公允),但集装箱数据中心全封闭、冷热通道隔离的天然特点,的确减少了冷空气的消耗,大幅提高了整体冷却效率。

特别是在Active Power、APC、EMERSON等基础设施设备厂商,也纷纷加入到集装箱产品的战场后,使得冷却系统的设计得到了进一步提升,水冷机柜、自然冷水源、水不进机房的风冷方案等轮番上阵。

随着冷却系统设计的比拼不断升级,未来针对集装箱数据中心,更新颖、更高效的冷却方式值得人们期待。