🎓作者简介:科技自媒体优质创作者
🌐个人主页:莱歌数字-CSDN博客
💌公众号:莱歌数字
📱个人微信:yanshanYH
211、985硕士,职场15年+
从事结构设计、热设计、售前、产品设计、项目管理等工作,涉足消费电子、新能源、医疗设备、制药信息化、核工业等领域
涵盖新能源车载与非车载系统、医疗设备软硬件、智能工厂等业务,带领团队进行多个0-1的产品开发,并推广到多个企业客户现场落地实施。
专题课程
每日篇行业发展资讯,让大家更及时了解外面的世界。
更多资讯,请关注B站/公众号【莱歌数字】,有视频教程~~
本期给大家带来的是关于数据中心中的电源问题研究内容,希望对大家有帮助。
在电子行业中,我们知道有不断向高密度设备的发展。但是,就像摩尔定律和洛克定律一样;随着能力的升级,成本也在上升。
这导致了对电路板和机箱级别的设计关注,以及对网络系统和数据中心的日益关注。不断关注从营销和工程领域内接受摩尔定律——继续生产提高性能,反过来,增加了制造业的资本成本。
本文将研究系统设计的权衡、冷却能力和功耗,以最小化总建设成本(TCO)。
提高数据中心效率的压力越来越大,但数据中心努力为其客户举办关键任务活动,而正常运行时间是他们最重要的性能指标。因此,这限制了削减冷却和冷却成本的范围。有一些可以有效冷却组件的基本方法,如空气冷却,和替代(液体)冷却。
简单地应用散热器,或优化散热器,或切换到更大的风扇,就足够了的情况已经一去不复返。通过空气冷却和液体冷却,提高了机架和机柜级的冷却能力。
图1显示了喷射冲击的概念,图2显示了热jett(喷射冲击)在μTCA底盘中的应用。
图1:喷射式撞击的概念
图2 -Therm-JettTM-μTCA应用程序
图3显示了喷射撞击在1-U底盘中的应用。在这两种应用中,实验数据显示组分温度降低了30- 40%。射流冲击的应用增加了传热系数,从而减少了用传统的冷却方法冷却装置所需的能量。
图3 -Therm-JettTM-1-U应用程序
常规的风冷柜几乎已经达到了相同外壳内的终端冷却,一个反复出现的挑战是替代冷却方法和换热器、泵、泄漏检测系统和冗余部件所需的额外空间。
这些系统不仅增加了所需的总体尺寸,而且这些在冷却方面不可避免的创新增加了可靠性、可用性和可用性(RAS)问题以及系统的TCO。
作为设计系统时考虑的基准,波内蒙研究所(由爱默生网络电力赞助)提交了一份基于美国41个独立数据中心的研究报告,这些中心在2010日历年经历了部分或完全数据中断。部分停机的平均时间不到1小时,而完全停机(平均)将再持续75分钟。
根据这项研究,数据中心中断的成本从最低38969美元到最高1017746美元不等,每个事故的总体平均成本为505502美元。
数据中心的电力使用效率等级(PUE)也正在成为一个重要的性能指标。
这是计算为一个设施的总电力除以其IT设备电力使用水平(欧盟选择使用互惠措施,设施效率,IT电力使用除以设施电力使用,也称为DCIE)。
表1显示了基本的PUE值。设施现在是专门设计的建筑,具有改善的气流,太阳能冷却和其他创新功能。俄勒冈州的Facebook目前正在14.7万平方英尺的建筑中增加16万平方英尺,目前按照LEED黄金标准建造,预计PUE评级为1.15。谷歌的E数据中心的PUE评级为1.12,惠普的Wynyard设施的评级为1.16。
2010年9月开业的雅虎计算中心中心以1.08的价格评级领先。
表1-PUE评级
图4中的饼状图分解了数据中心的能源消耗模式,从PUE和DCiE评级中,我们可以确定:
-
提高数据中心运营效率的机会。
-
数据中心之间如何相互比较。
-
操作员如何长期改进设计和流程。
-
将能源用于额外IT设备的方法。
图4-数据中心的功耗
数据中心目前的用电量约占美国总用电量的1.5%,每年的运营成本为45亿美元。这个数字是过去5年倍增效应的结果,通过数据中心的能源使用将再次出现,5年后再次翻倍。
据英特尔报道,60%至70%的数据中心功率可用于设施的电源和数据中心冷却。在英特尔的情况下:冷却空气提供在68ºF,它通过他们的数据中心叶片,将温度提高到126ºF。
在再循环过程中,用58ºF冷却空气所需的空调吸收了大量的能量。随着全球企业越来越关注生产率和成本控制,降低这些大型系统留下的碳足迹,使企业能够通过默认实现绿色生产,提高公关能力并获得税收减免。
如果我们可以通过剥离我们的数据中心,使用原始的、粗过滤的外部空气冷却,在4-90%的环境温度和工作温度,会怎么样呢?这甚至有意义吗?进入空气经济性。
空气节约器也是降低数据中心电力消耗和冷却成本的一种潜在方法。空气节约器不是冷却和循环来自服务器的热空气,而是简单地排出室外的热空气,并吸入外部空气来冷却IT设备。
他们的概念证明(POC):大约900台生产设计服务器被分成两个房间,每个房间包含8个机架。
每个机架包含4个刀片服务器,每个服务器有14个刀片,每个隔间总共有448个叶片。
这代表了一个功率密度超过2178 W/m2。所有这些都变成了相对湿度普遍较低的沙漠气候。PoC于2007年10月开始,测试持续了10个月——直到2008年8月。
结果表明,当在两个隔间中使用空调时,拖车的总功耗约为500千瓦。当使用省煤器时,省煤器舱内的DX冷却负荷从111.78KW降低到28.6KW,表示能耗降低了74%。
通过网络和数据中心分配,我们在冷却和管理电力方面取得了巨大进展;然而,范式转变,在前进过程中,需要进行重大变化,以满足我们未来社会的持续需求。
关于数据中心,之前也有相关文章,大家感兴趣可以查看。