数据中心基础知识

数据中心基础知识

目录

数据中心基础知识

一、 数据中心基本概念

1.1数据中心介绍

1.2数据中心级别划分

1.3、国际标准(Uptime Institute Tier)

1.4、其他补充标准

二、 数据中心组成

2.1数据中心结构

2.2 IT系统组成

2.3数据中心硬件知识

2.3.1、服务器组件

三、 数据中心建设

3.1相关政策

3.1.1国家层面政策文件

3.1.2地方层面政策文件(例举典型地区)

3.1.3申报流程核心文件

3.2申报流程与主管部门

3.2.1前期申报核心部门

3.2.2 关键流程示意图

3.2.3、政策申报实务建议

四、 数据中心算力知识

4.1计算数据中心算力与算效

4.1.1算力的定义

4.1.2算力的分类

4.1.3算力的单位与精度

4.2算力(CP)的计算方法 

4.3算效(CE)的计算方法

五、具体案例—方案配置

5.1 数据中心额定容量

5.2 成长计划

5.3 机柜密度与密度分布

5.4 能效使用效率PUE

5.5设计思路

5.6初步设计规划

5.6.1垂直空间布局

5.6.2平面布局

5.6.3 UPS供配电系统

5.6.4制冷系统

5.6.5机柜及通道封闭系统

5.6.6环境、设备及安防的集中监控系统

5.6.7 数据中心运行管理系统

5.7 扩容方案

5.8 方案优势总结

5.9供配电系统解决方案

5.9.1设计思路

5.9.2建议方案

5.9.3方案介绍

5.9.4配电柜及元器件的选择

5.9.5配电系统配置清单

5.10.  UPS不间断电源解决方案

5.10.1 设计思路

5.10.2建议方案

5.11机房制冷系统解决方案

5.11.1设计思路

5.11.2空调系统方案

5.12. 新风系统设计

5.13机房制冷系统配置清单

5.14机柜系统设计方案

5.14.1设计思路

5.14.2机柜系统设计方案

5.14.3机柜系统配置清单

5.15监控管理系统系统解决方案

5.15.1设计思路

5.15.2监控系统设计方案

5.15.3监控系统方案特点及优势

5.15.4监控系统配置清单

1.1数据中心介绍

IDC(Internet Data Center,互联网数据中心)是为企业、政府及互联网服务商提供大规模、高质量服务器托管、网络带宽、数据存储及增值服务的专业化设施。其核心功能包括:

基础设施服务:提供高带宽、高稳定性的网络资源,支持服务器托管、机架出租等。资源保障:通过冗余电力(如UPS、发电机)、恒温恒湿环境、气体灭火系统等,确保设备安全运行。网络优化:采用BGP动态路由技术,解决南北网络互访问题,提升国内外访问效率。

1.1.1典型架构与组成

网络资源:

多线路骨干网接入(如电信、网通、教育网等),总出口带宽可达数十Gbps。支持IP地址动态分配,满足大规模设备接入需求。

物理设施:

机房建筑:抗震强度达8级,承重能力达1600公斤/平方米,保障设备物理安全。

电力系统:双路市电、柴油发电机、UPS不间断电源,确保电力冗余。

安全与管理:7×24小时专业运维团队,实时监控网络状态及设备运行。

多重安全防护:门禁系统、视频监控、入侵检测及DDoS防御。

1.1.2应用场景与价值

企业服务:为金融、电商等企业提供数据存储、云计算及灾备服务。

支持虚拟主机、负载均衡、内容分发(CDN)等增值功能。

公共领域:政府信息化项目、智慧城市建设的核心基础设施。

技术驱动:AI IDC提供高性能计算资源(如GPU集群),支撑人工智能训练与推理。

1.1.3选择IDC服务的关键因素

网络性能:优先选择多线BGP机房,保障跨运营商访问速度。

扩展性:支持带宽按需扩容,满足业务增长需求。

服务能力:SLA(服务等级协议)承诺,如99.9%以上可用性。

提供快速响应(如15分钟故障处理)及定制化解决方案。

1.1.4、行业发展趋势

绿色化:采用液冷技术、自然冷却方案降低能耗(PUE≤1.3)。

智能化:结合BIM技术优化机房运维,实现全生命周期管理。

1.2数据中心级别划分

国内依据《数据中心设计规范》将数据中心分为 A、B、C 三级,主要从供电、冗余、容错能力等维度划分,适用于不同业务场景:

A级(容错型)

核心要求:双路独立供电(2N冗余)、全系统容错设计,支持设备故障或维护时的无缝切换,确保 99.999% 可用性(年宕机时间≤0.8小时)。

适用场景:金融、交通调度、政府核心系统等对中断“零容忍”的关键业务。

B级(冗余型)

核心要求:关键设备冗余配置(如N+1供电),允许单点故障但需保障系统持续运行,可用性 ≥99.99%(年宕机时间≤8.76小时)。

适用场景:医院、科研机构等对中断敏感但容忍度较高的场景。

C级(基本型)

核心要求:单路供电和基础冷却,无冗余设计,可用性 ≥99%(年宕机时间≤88小时)。

适用场景:企业非核心业务或灾备系统。

1.3、国际标准(Uptime Institute Tier)

国际通用标准由美国Uptime Institute制定,分为 Tier I至Tier IV 四个等级,基于冗余能力和可用性划分:

Tier I(基础型)

可用性:99.671%(年宕机≤28.8小时)。

特点:单路供电与冷却,无冗余,维护需停机。

Tier II(部分冗余)

可用性:99.741%(年宕机≤22.6小时)。

特点:关键设备(如UPS、发电机)部分冗余,仍存在单点故障风险。

Tier III(可并行维护)

可用性:99.982%(年宕机≤1.6小时)[。

特点:全系统冗余(N+1),支持在线维护,适用于金融、云计算等高要求场景。

Tier IV(完全容错)

可用性:99.995%(年宕机≤0.4小时)。

特点:2N+1冗余架构,物理隔离的双独立系统,故障或维护不影响运行,满足军事、超算等极致需求。

1.4、其他补充标准

T5级别(非Uptime标准):部分文献提到T5为最高级,强调无水冷却、环境监测等能力,但未被Uptime官方纳入,可能属于企业自定义扩展。

绿色分级:国内《数据中心绿色分级评估标准》按能耗效率划分1A-5A级,反映环保能力。

国标 vs. 国际标准:国标A级≈Tier IV(容错型),B级≈Tier III(冗余型),C级≈Tier I-II(基本型)。

选型依据:需结合业务连续性需求、预算及合规要求。例如,金融核心系统需A级/Tier IV,而企业测试环境可选C级/Tier I。

2.1数据中心结构

2.2 IT系统组成

2.3数据中心硬件知识

2.3.1、服务器组件

服务器的接口 :

服务器的反面接口 :

(1)  CPU

CPu定义 :  中央处理器  (CentraI Processing unit ,  简称cpu) 作为计算机系统的运算和控制核心 , 是信息处理、程序运行的最终执行单元。示例图片 :

cpu核心参数 :

CPU常见故障及原因 :

1. 无法开机 : CPU    硬件    损坏 ,  PIN脚接触不良。

2. 宕机重启 : CPU温度过高、CPU硬件不良。

3. 内存报错 : CPU内存控制器损坏。

4. PCIe    设备报错 : CPU内部的PCIe控制器损坏。

(2)  主板

(3)  硬盘

硬盘分类 : —般分为固态硬盘和机械硬盘

硬盘接口类型:

硬盘参数 : 容量、尺寸、缓存和转速

硬盘定位 :

(4)  网卡

.   电口网卡—般是插网线的 ,  有100M、1000M等规格

  光口网卡—般是插光纤的 , 有1G、10G、25G、40G、100G等规格

(5)  磁盘阵列卡

(6)  电源供应单元

(7)  风扇

2、网络设备及耗材

(1)  交换机

交换机基本接口 :

交换机各接口 :

(2)  路由器

(3)  光纤

光纤分类 :

光纤接口

光纤成对收发 , —根负责发送 , —根负责接收 , 发送端为TX , 接收端为RX

(4)  光缆

光纤配架器:

分光器:

光功率计 :

(5)  光模块

光纤不能直接连接到服务器上使用 , 需要使用光模块来配个使用。

光模块结构 :

光模块接口类型和速率 :

6)  网线

网线分类 :

水晶头接线 :

设备互联法则 :

1. 直通线  (默认采用T568B标准)   电脑<---->ADSL猫 ADSL猫<---->ADSL路由器的WAN口 电脑<---->ADSL路由器的LAN口 电脑<---->Hub或交换机

2. 交叉线     电脑<---->电脑      Hub<---->Hub 交换机<---->交换机 路由器<---->路由器

3.1相关政策

以下是集装箱数据中心相关政策的具体文件名称、内容出处及关键条款的详细说明,按国家层面与地方层面分类整理:

3.1.1国家层面政策文件

1. 《全国一体化大数据中心协同创新体系算力枢纽实施方案》

发布单位:国家发改委、中央网信办、工信部、国家能源局(2021年5月)

支持内容:

布局支持:优先在内蒙古、贵州、甘肃、宁夏等“东数西算”枢纽节点部署绿色数据中心(第八章第三节)。

 能耗优惠:对平均PUE≤1.3的数据中心,放宽能耗指标限制,并给予电价补贴(第五章第二节)。

2. 《新型数据中心发展三年行动计划(2021-2023年)》

发布单位:工信部(2021年7月)

关键条款:

能效要求:新建大型/超大型数据中心PUE≤1.3,到2023年全国数据中心平均PUE≤1.5(第四章第二条)。

技术创新补贴:对液冷、储能、模块化技术应用的示范项目,给予不超过总投资30%的补贴申报资格(第五章财政支持政策)。

3. 《关于严格能效约束推动重点领域节能降碳的若干意见》

发布单位:国家发改委、工信部、生态环境部(2022年2月)

支持内容:

能耗准入:明确将数据中心纳入“高耗能行业”,要求新建项目PUE≤1.5。

4. 《节能节水项目企业所得税优惠目录(2021年版)》

发布单位:财政部、税务总局、国家发改委(2021年12月)

税收优惠:符合条件的数据中心可享受企业所得税“三免三减半”(投产运营后前3年免税,第4-6年减按50%征收)(第三条第四款)。

3.1.2地方层面政策文件(例举典型地区)

1. 《上海市新型基础设施建设项目贴息管理指导意见》(2022年)

支持条款:

贴息比例:对集装箱数据中心项目提供最高50%的贷款贴息(单项目上限5亿元,第三章第八条)。

申报条件:需在市经信委备案,且PUE≤1.25。

2. 《广东省5G基站和数据中心总体布局规划(2021-2025年)》

关键内容:

用地审批简化:集装箱数据中心按“临时建筑”审批,缩短用地流程(附件2“建设管理细则”)。

电价优惠:珠三角地区执行0.55元/度电价,粤东粤西粤北地区叠加30%补贴(第四章能源保障)。

3. 《北京市数据中心统筹发展实施方案(2021-2023年)》

政策重点:

限制性措施:核心城区禁止新建PUE>1.4的项目(第二章区域准入)。

改造补贴:对存量数据中心节能改造(如PUE降至1.3以下)给予最高2000万元奖励(第四章资金扶持)。

4. 《贵州省关于促进大数据产业高质量发展的若干政策措施》

西部政策范例:

“电价+土地”双优惠:

执行0.35元/度专项电价(需满足PUE<1.3,**第三章电价政策)。

工业用地成本减免50%(需承诺连续运营10年以上,**第五章用地保障)。

3.1.3申报流程核心文件

1.《企业投资项目核准和备案管理条例》(国务院令第673号)

要求:数据中心项目需通过地方发改委备案核准(备案流程时限不超过7个工作日)。

2.《建设项目环境影响评价分类管理名录》(生态环境部2021版)*

环评标准:集装箱数据中心属“计算机及电子设备制造业”,需编制环境影响报告表(类别四十三)。

3.《数据中心设计规范》(GB50174-2017)

强制标准:消防、抗震、散热设计要求(如冷冻水系统备用机组配置)。

3.2申报流程与主管部门

3.2.1前期申报核心部门

环节

主管部门

核心要求

项目立项备案

地方发改委/工信局

提交《项目可行性研究报告》备案证明文件

能耗指标审批

发改委能源处

通过省级能耗指标评审(PUE≤1.5为硬性门槛)

环境影响评价(环评)

生态环境局

需第三方环评机构出具《环境影响报告书》

节能审查/能评

节能监察中心

提交《节能评估报告》(重点核算PUE/CLF)

用地规划许可

自然资源局

土地性质需符合工业/科技用地规划

电力接入审批

国家电网/地方供电局

需匹配容量需求(如高压/低压供电方案)

消防验收

住建局消防科

符合《数据中心设计规范》(GB50174)

3.2.2 关键流程示意图

1. 立项阶段:发改委备案 → 能耗指标申请 → 环评/能评同步推进。

2. 建设阶段:用地规划许可 → 电力接入审批 → 建筑施工许可。

3. 验收阶段:消防验收 → 能效复核 → 正式投运。

3.2.3、政策申报实务建议

1. 资质与材料准备

   必交文件:企业营业执照(需含数据中心运营资质)、项目可行性研究报告、第三方环评/能评报告。

   加分资质:高新技术企业认证、ISO50001能源管理体系认证。

2. 政策红利挖掘建议

   补贴类:重点关注地方政府“数字经济专项基金”;

   试点类:争取列入国家或省级“绿色数据中心试点示范项目”(可获资金和技术支持)。

3. 风险规避

  提前与地方发改委/大数据局沟通,确认区域规划准入限制(如部分地区禁止新建PUE>1.4项目)。

 联合第三方服务机构(如IDC咨询公司)优化申报路径,缩短审批周期。

注:具体政策执行细则需结合项目属地化要求调整(如部分地区需经信委联合审批)。建议定期跟踪工信部、发改委官网动态,优先对接地方“大数据/数字经济”主管科室。

4.1计算数据中心算力与算效

4.1.1算力的定义


算力(CP,ComputationaPower)即数据中心的计算能力。指数据中心的服务器通过对数据进行处理后实现结果输出的一种能力,是衡量数据中心计算能力的一个综合指标,数值越大代表综合计算能力越强。算力应是数据中心内所有服务器的算力加和

4.1.2算力的分类


算力(CP)的核心要素包括通用算力(即CP-Nomal,简写CPN)和智能算力(即CP-Tuto,简写CPT)。通用算力是指数据中心服务器仅包含CPU的算力。智能算力是指数据中心服务器不仅包含CPU,也包含GPU或AI芯片的算力。因此数据中心的算力(CP):

4.1.3算力的单位与精度


算力(CP)最常用的单位是FLOPS(Floatimng point OperationsPer Secnd,每秒浮点运算次数)。事实上,FLOPS已成为各种设施(如计算机、超算机、服务器等)衡量计算性能的代名词。FLOPS是一个基本单位,它的更大的数值单位有K(千)、M(兆)、G(吉)、T(太)、P(拍)、E(艾)

表1 算力常见单位


算力精度不同,实际算力水平差别巨大。如果因此衡量算力水平,单一采用运算次数指标是不够的,还应考虑算力精度。
根据参与运算数据精度的不同,可把算力分为:双精度算力(64位,FP64)、单精度算力(32位,FP32)、半精度算力(16位,FP16)及整型算力(INT8、INT4)。数字位数越高,意味着精度越高、可支持的运算复杂程度越高、适配应用场景越广。

表2 算力精度适用场景

但是一般情况下,算力规模测算时统一折算为单精度浮点数(FP32)算力进行统计。

4.2算力(CP)的计算方法

通过上面我们知道算力是通过数据中心内所有服务器的算力加和来统计的。如果我们仅知道IT电力容量时,怎么去估算数据中心(智算中心)的算力呢?
首先我们应选定一款AI服务器,查看它的用电功率。以H100 GPU 服务器为例:CPU耗电约300W*2,内存16根耗电约 250W,硬盘6块盘约200W,风扇耗电约150W,H100GPU卡耗电约700W*8,。而以H100模组整机服务器满配的情况下,单台约功率约10kW。例如数据中心的IT总容量为8000kW,计算服务器台数:

 从上公式,计算出本数据中心可布置800台H100 GPU 服务器。然后计算服务器的GPU算力。

表3 H100 SXM算力参数
通过上表查出,H100 GPU单卡算力为67TFLOPS,单台服务器共有8张GPU卡。在忽略CPU算力的情况下,可计算出数据中心中心的算力规模为:

由上公式,可以算出428,800TFLOPS(半精度FP32),即428.8PFLOPS(半精度FP32)。一般情况下,建议在后面加上算力精度,避免产生歧义。

4.3算效(CE)的计算方法


算效(CE,ComputationalEmciency)是指数据中心算力与功率的比值,即“数据中心每瓦功率所产生的算力”,是同时考虑数据中心计算性能与功率的种效率。数值越大,代表单位功率的算力越强,效能越高。若CP为以单精度浮点数(FP32)的数据中心的算力,PC为数据中心IT设备的整体功率,其单位为瓦(W),则算效CE的计算公式为:

 再以上面的数据中心为例,代入算力428,800TFLOPS(半精度FP32)与IT总容量8000kW进行计算:

 计算出数据中心的算效为5350FLOPS/W。

五、具体案例—方案配置

以施耐德数据中心建设为实例进行方案分析

该数据中心的主要IT应用包括:

  • 支持本大楼和周边人员初期1500,远期最多3000个桌面系统。
  • 提供100台虚拟服务器,满足大楼和四川周边生产的应用需求。
  • 对现有生产数据中心的数据进行备份。预计40T容量。
  • 希望充分利用该机房的物理空间和电力等方面的条件,预留升级能力,远期将该数据中心升级,与现有生产数据中心实现完全互备,形成双机房并列模式。

根据机房的现实物理环境情况,以及预计的初期和远期IT负载的要求,结合目前国内外数据中心基础设施的研究白皮书、最佳实践,提出如下总体设计目标:

5.1 数据中心额定容量

数据中心IT负载额定容量500KW。100个机柜。

根据大楼配电预留功率1200KVA,机房面积408m2,IT负载初期240KW,远期400KW的IT负载需求,决定搭建最大额定容量为500KW的基础设施框架,以保证最大负载时不超过80%的负载率。

5.2 成长计划

采用可在线扩容升级的架构。在数据中心各个时间段都保持合理的可用性和冗余度。空间布局设计按照100个机柜来做布局。

初期启动容量为300KW,初期布局80个机柜。

二期增加20个机柜,扩容到500KW容量。

5.3 机柜密度与密度分布

根据对IT负载分析,决定采用3种功率密度组。其中60个机柜为3KW功率密度,20个机柜为6KW功率密度组,20个机柜为9KW功率密度组。共计100个机柜。

机柜的功率密度与机房布局、机柜配电、制冷系统的设计密切相关。

5.4 能效使用效率PUE

确定年平均PUE=1.8,避免不同时间、不同负载率、不同季节时瞬时PUE的差异。为了实现节能减排,展现本企业的社会责任感,降低数据中心运行耗电量,减少运行电费成本,要求达到上述PUE战略设计目标。

5.5设计思路

究竟应该采用怎样的解决方案呢?让我们首先看看在数据中心基础设施设计过程中主要面临的几个问题:

  • 负载容量难于估计。不能准确估计初期和今后数年内的IT设备真实负载情况,从而不能确定基础设施的容量和规模。
  • 机柜功率密度难于估计。很难估计每个机柜的初期功率密度以及今后密度的变化情况,这使得机柜级的制冷系统和供配电系统的设计非常困难。
  • 扩容困难,灵活性差。基础设施的扩容或机房的改造是非常麻烦的事情,工期很长,需要作出的调整很多,甚至要求现有IT系统断电停止运行。
  • 数据中心效率低,运行成本高,全寿命周期TCO高。建设数据中心需要不少投资,而运行数据中心也需要花费大量的金钱,随着能源价格的不断上升,电费的增长是一个必须被考虑的因数,国家对二氧化碳排放的限制以及节能减排的企业责任的要求,都导致我们必须仔细考虑数据中心的运行效率 ,关注PUE值。而传统的一次性投入的基础设施设计模式将会造成很长一段时间内负载率都比较低,低负载率将带来低效率和高运行成本。必须采用合理规划的模式。
  • 维护困难,操作复杂。传统的基础设施设备均为非标准化设计,要求专业技术人员才能进行维护。这会使得故障恢复时间漫长,降低数据中心可用性。

目前基础设施的架构有两大模式:

  • 采用分离部件,一次性搭建模式。现场人工施工环节多,施工技能要求高。系统总体负载率低,运行效率低,运行成本高。扩容复杂。
  • 采用模块化组件,分期分批构建模式。现场施工环节简单,施工技能要求低。任何时间段均能保持较高负载率,运行效率高,运行成本低。扩容简单。

为解决上述问题,显而易见,采用集成的、模块化、标准化、预制化的组件式的分批分期建设模式,是数据中心基础设施解决方案的合理架构。这种架构的系统能够为用户搭建高可用的、灵活的、绿色的数据中心。

数据中心实际是由三大系统构成的:建筑物、IT系统、基础设施系统。在设计的时候,这三大系统之间的关系必须遵循一个原则,即低关联度的原则。

如果这三者互相之间关联度高,意味着系统互相之间会有很多要求,例如,基础设施采用下走线方案,就要求机房要采用高架地板,要求机房梁下净高不低于3.2米,这个下走线的方案就是属于高关联度方案。

高关联度使得互相之间要求太多,一旦条件受限,方案就不能实施,改变一个条件就使得相关系统也要发生改变,一发而动全身,灵活性降低。

因此,采用低关联度、高兼容性的解决方案是一个重要的设计思路。

5.6初步设计规划

5.6.1垂直空间布局

目前得到的新大楼二楼层高为5.9m,梁下净高5.4m,总体来说机房物理空间条件还是很好的。

基于上述数据,决定如下空间设计。

采用高架地板,高度40cm,地板下走空调管线、电源系统主电缆、电池电缆、消防、监控系统、插座电缆等管线。高架地板下水泥地面做修平除尘刷漆处理,不用做保温。

不采用整体天花板,可采用顶部刷漆涂黑、局部装饰吊片方式,装饰吊片离机柜顶部距离100cm。简约、现代风格。天花板水泥表面可做保温处理,提高制冷效率。

四周墙壁用彩钢板处理,保温,美观。

为提高机柜线缆的可用性,方便今后线缆的扩容和维护管理,首先决定机柜排的电源线和数据线全部上走线。可以采用机柜顶部卡装的走线槽 + 局部吊线架的走线模式,数据线和电源线桥架平行布局,以节省空间高度。

线缆走线槽和吊线架位于机柜正上方。灯盘位于热通道和冷通道上方。其他管道如消防、监控、空调管道也合理布局,不发生干涉。

机柜顶部卡装的走线槽高度为18cm,电源线和数据线走线槽平行布局。

采用42U机柜,高度200cm。

5.6.2平面布局

根据设计思路,机房分两期建设。机房的布局和配置,必须保证今后第二期可在线扩容。

为方便今后扩容,扩大机房利用率,扩大空调利用率,提高能效比,降低施工的复杂度,决定主机房采用开放式布局。

基本设计思想如下:

  • 开放式布局。整个房间全开放。提高空间利用率。减少布线、配电、消防和制冷的麻烦。减少辅助的装饰装修,方便今后的扩容。电池部分尽量远离其他柜体。提高安全性。
  • 就近配电原则。总配电柜靠近市电进线管道井配电。UPS的输出配电盘与IT机柜摆放在一起。配电盘为5U高,机架式安装在IT机柜内,缩短到每个机柜的配电距离。提高配电可用性。
  • 热量集中就近制冷原则。机柜背对背两排布局,中间为热通道,热量集中。便于高效制冷以及制冷共享。
  • 机柜密度组设计原则,对同样密度的机柜采用同样的设计,并尽可能放在一起。
  • 按需规划,预留今后扩容柜体位置。包括机柜位置、电池柜体位置、空调柜体位置。但是空调管道,在第一期建设中即全部安装焊接好,降低今后在机房内动火焊接的风险。

机房整体布局图如下:第一期80个机柜,负载额定功率为240KW;第二期增加20个机柜160KW,总功率达到400KW。

5.6.3 UPS供配电系统

考虑到初期机房的IT负荷为240KW,预期达到400KW的预估情况,同时考虑到IT双电源负载对供配电冗余能力的要求以及今后的在线扩容的要求,决定采用双路模块化供配电系统。

采用两套初期功率为300KW模块化冗余UPS系统,可用性可达99.999%,今后每套模块化UPS可扩展到500KW。满足远期要求

电池方面,由于大楼有双路市电,考虑到制冷延时的问题,考虑到机房温升的速度,机柜功率密度等,UPS系统的电池不宜配置太多,综合因数决定初期配置240KW下30分钟的延时时间。

UPS的输出配电柜。由于预计机柜数量初期80个,远期达到100个机柜,并且分成3个功率密度组,60个3KW,20个6KW,20个10KW机柜。考虑到部分小机、今后可能的刀片式服务器等有额外的配电需求,因此,决定每条供电回路配置2个输出配电柜,总计4个UPS输出分配电柜。每个配电柜内最多配置72个开关,预先配置30个32A开关,30个16A开关。4个配电柜共计240个支路开关。

为实现就近配电,方便今后配电回路扩容,方便实现对每个机柜内插线板的实际用电情况实现监控,降低局部的过载断电事故,决定采用机柜式的精密配电柜,能够对每路支路开关电流和开关状态进行监控。

为方便今后配电回路扩容,采用可在线热插拔模式的开关,并提前安装好支路电流监控。

5.6.4制冷系统

由于预计机柜数量初期80个,远期达到100个机柜,并且分成3个功率密度组,60个3KW,20个6KW,20个10KW机柜。

再考虑到要求年平均PUE=1.8,以及高密度10KW机柜市电断电后的连续制冷问题,决定整个系统采用冷冻水系统,全部采用水平送风模式空调,热通道封闭系统。

室外冷冻水机组采用带有自然冷却功能的风冷冷冻水机组。初期两台250KW制冷量机组并联,预留管线和位置,远期再并联一台250KW机组。

5.6.5机柜及通道封闭系统

根据初期80个机柜,远期达到100个机柜,功率密度为3,6,10KW的要求,以及考虑到会有小型机、刀片式服务器等IT设备根据需求,决定统一采用600宽1200深的42U高服务器机柜。

对于3KW和6KW机柜,每个机柜配置2路16A或32A机架式垂直安装插线板。10KW机柜,每个机柜配置4个垂直安装32A插线板。

机柜两排一组,背对背布局,顶部和侧边封闭,形成热通道遏制系统。

机柜内预装多个1U盲板和走线附件,机柜顶部安装电源线和数据线的卡装式走线槽。选装少量固定托盘,以应对少量塔式设备的安装。

5.6.6环境、设备及安防的集中监控系统

为方便运行管理,降低人员工作量,实现远程无人值守功能,可搭建一套集中的监控管理和报警平台。对基础设施设备(UPS、电池、配电柜、空调等)、环境(温度湿度、噪音、露点、风速、烟感、洁净度等环境参数)、视频等三大部分实行集中的监控管理和报警。

5.6.7 数据中心运行管理系统

为提高数据中心的管理级别,实现资产管理、容量管理、变更管理等,从而优化数据中心各资源调配,还可配置一套数据中心基础设施运行管理专家系统,搭建数据中心的3D模型,从而可以进行模拟推演,实现预测、评估、优化等功能。

5.7 扩容方案

项目分两期建设,第一期80个机柜,240KW 负载,第二期增加20个机柜,增加负载160KW。

如平面布局图,机房由5个微模块构成,每个微模块由20个机柜及相应的制冷配电等构成。第一期搭建4个微模块,第二期再增加一个微模块。

在第一期搭建两套500KW的框架,每套配置300KW UPS。第二期直接在线增加功率模块,扩容到每套500KW。

5.8 方案优势总结

本项目基础设施部分最终采用了模块化、标准化、集成化的整体解决方案,具有如下优势:

  • 快速。模块化组件的模式,提高了方案在设计、建造、维护、扩容等各个阶段的速度。
  • 灵活。模块化的架构,可分批分期构建,非常方便今后的更改与在线扩容。
  • 高效。年平均PUE值可达1.8。就近配电、就近制冷、合理的负载率的原则,使得在数据中心的任何时间段,都具有很好的电能利用率PUE。降低了运维成本,在同样的电力资源下,可支撑更多的IT负载和应用。
  • 适应。对物理空间环境要求低,兼容性强。
  • 高可用性。通过工厂预制组件,降低现场施工的人为故障,通过模块化的架构,提供故障时的快速更换与维修,通过冗余的架构,提高了系统的可用性。
  • 可管理性。采用标准化、模块化架构,搭建集中管理平台。该系统不但可以实现对基础设施系统与设备、环境和安防视频的集中监控,还可以快速搭建数据中心模型,进行模拟分析,实现预测与评估,提供专家级的优化建议。通过资产、容量、能效、变更、CFD等功能模块的部署,该系统不但在运维管理阶段、甚至在数据中心生命周期前期的规划设计、建设验证等阶段,都可以帮助用户更均衡和合理的搭建、分配和利用各种资源,提高数据中心的安全性、可用性和运行效率,提高整个系统的灵活应变能力。

 

 5.9供配电系统解决方案

5.9.1设计思路

本项目大楼配置两路1250KVA市电,一路1000KW发电机。经过ATS切换后形成两个对称的2000A母排。

5.9.2建议方案

5.9.3方案介绍 

机房总体配电系统的示意图如下图所示。

    采用两个强电配电柜,每个配电柜均配置两路市电母排,以及一路市电输入连接铜牌端子,如图示。每个强电柜内配置一个ATS切换开关,每套ATS切换开关后带一套UPS供配电系统,以及为一半的空调,新风,排风系统,照明,插座等供电。

UPS系统为IT机柜、消防系统、监控系统、应急照明系统等供电。

门禁系统、空调、新排风系统与消防系统联动,新风系统可手动控制。

两个强电柜按照大楼预留的1200KVA功率进行总开关和铜排容量设计,配置智能多功能电量仪,并采用Modbus通信接口列入管理系统。

强电系统采用上走线模式。

强电系统预留最终能满足400KW  IT负载所需要的UPS系统、空调系统等的开关。

5.9.4配电柜及元器件的选择

本设计配电柜中断路器为国际知名品牌施耐德、ABB、西门子等产品,柜体选用原厂柜,提供高可用性。

空调/照明断路器带有消防分励脱扣线圈,与消防报警联动。

配电柜中设智能电量监测仪,配电柜各主要断路器带辅助触点,可在监控室监测机房供电情况。

5.9.5配电系统配置清单

名称

型号

数量

市电总输入开关

CVS160N/3P-125A

1

UPS输入开关

CVS100N/3P-100A

1

空调、照明总开关

CVS100N/3P-50A

(MX+OF)

1

空调开关

C65H-D16A/3P

2

新风机开关

C65H-D10A/1P

1

照明开关

C65N-C10A/1P

1

电量仪

PM810

1

5.10.  UPS不间断电源解决方案

5.10.1 设计思路

搭建2N+1的UPS供配电系统,考虑到分两期建设,要求实现在线扩容,最终IT负载达到400KW,并且年平均PUE=1.8,最终决定采用两套高效率的模块化UPS供配电系统,每套额定容量500KW。

5.10.2建议方案

每套模块化UPS初期配置300KW N+1,根据IT发展随时增加UPS功率模块。每套UPS初期各配置4组100AH  12V电池,形成240KW下30分钟延时支撑时间。配置多组电池的目的也是提高电池系统可用性,配置100AH电池是因为性价比最高。

为提高电池系统的可用性和扩展能力,专门配置多功能电池开关柜,预留配置4组电池的接线端子,每组电池配置分开关和熔断器,以进行短路防护。电池系统配置温度传感器,及时报警。

为提高模块化UPS系统的可用性,每套UPS专门配置独立的静态旁路柜体,可在线更换旁路模块,不采用简易的每个UPS功率模块内置小容量静态旁路的模式。

另外,为预防模块化UPS极端故障情况下的不间断供电,每套UPS系统还配置独立的输入输出和维修旁路开关柜,保证在危急情况下也可以经由市电为IT机柜供电。

因此每套UPS包括6个柜体:2个功率模块柜、1个静态旁路模块柜、1个输入输出旁路配电柜体、1个电池开关柜体、4个电池柜。今后根据需要可再增加4个电池柜体。

在400KW负载下,如果每套UPS配置8组100AH电池,可支持32分钟,满足设计要求。

机柜配电的设计。UPS输出配电柜配置支路开关,每个支路开关后连接一个半机柜宽的智能精密配电柜,每个配电柜最大电流400A,支持最多72个单相32A热插拔开关。配置监控系统、液晶显示和通讯网卡,可对每个机柜的支路开关进行实时监控,提供电压、电流、功率、功率因数等数据,可对过载以及开关跳闸进行报警和预设定门限,实现专家级运行管理功能。

初期每套UPS系统配置2个半机柜宽的智能精密配电柜,满足后期机柜的增加对配电的需求。

5.11机房制冷系统解决方案

5.11.1设计思路

为满足年平均PUE≤1.8的设计要求,提供对2-10KW机柜密度的全兼容能力,并可以在线扩容,决定采用机柜排级别的水平送风模式空调。

为降低建造成本,实现自然冷却,决定采用冷冻水换热模式。

5.11.2空调系统方案

5.11.2.1热负荷计算

    机房的热负荷组成由IT设备的热负荷、UPS及PDU的热负荷、照明、物理空间负荷、新风负荷、人体热负荷等负荷组成。机房IT负载初期为240KW,扩容后最大IT负载达到400KW。

    机房暂以4个工作人员计算。

初期IT负载5KW/6KVA时,机房的总热负荷为:

从上图可以看到,初期机房的总热负荷为7.79KW,其中显热量为7.13KW,机房热负荷的显热比为0.92。

远期IT负载增加到400KW时,机房的总热负荷变为:

从上图可以看到,远期机房的总热负荷为12.07KW,其中显热量为11.41KW,机房热负荷的显热比为0.95。

5.11.2.2空调选型及配置

由上述计算得到机房远期总热负荷为12.07KW,建议机房采用2台施耐德上送风后回风的空调机组SUA0331空调机组,形成1用1备。每台SUA0331空调机组送风量为1950CFM,能提供9.3KW制冷量。

这样配置的好处是:前期IT负载为5KW时,机房的总热负荷为7.79KW,此时2台SUA0331空调机组形成1用1备,提高了制冷的可靠性;远期IT负载为9KW时,机房的总热负荷为12.07KW,此时2台SUA0331空调机组也能满足机房制冷需求;即使1台空调坏了,另外1台也能支持机房77%的制冷量,最大限度地提高了机房制冷的可靠性。

机房内部的送回风路径如下图所示,电池柜、UPS柜和机柜一排摆放,机柜前面为冷通道,后面为热通道;为了提高制冷效率,空调顶部加风帽将上送风改为前送风,直接将冷空气送到机柜前面,空调后部回热空气。

  

该机房制冷设计中推荐选用施耐德品牌空调阿米哥系列,该产品系列在精密空调行业属技术非常领先的产品,室内主机部件均采用国际知名品牌,在节能和可靠性方面表现突显,机组本身能效比高,并且采用先进的控制器pCO1具有节能备用机组系统管理模式,运行费用将大大降低,并具有灵活可靠、全正面维护、模块化、扩容方便等特点。

SUA0331精密空调特征:

室内机组采用吸音夹层,达到低噪音的环保要求。

全系列采用最新环保型冷媒,并选用可适应多制式冷媒压缩机。

采用高品质原器件,设备寿命长、稳定度高、维修量极小。

采用特殊铝合金加热片可防止产生辐射性气体。

前开门维修方式,维修容易并将对运行的干扰减至最小。

其独特的可调速室内风机,使机组的显热比与实际环境热负荷分配更加匹配。从而达到最佳的节能效果。

采用柔性涡旋式压缩机,效能高,运动部件少,延长机组寿命,无液击现象。 

SUA0331空调技术参数表 – 风冷型

序号

机组型号

SUA0331

1

制冷量 – kW

9.3

2

送风量 –CFM(m3/h)

1950

3

送风机功率 – W

430

4

风机数量

1

5

额定输入电压– V

380

6

电源频率– Hz

50/60

7

机组最大运行功率  – KW

4.4

8

空调机组制冷剂

R22

9

机组重量 – Kg

150

10

机组高 – mm

1740

11

机组宽 – mm

700

12

机组深 – mm

450

13

机组加湿水管水管 – mm

6

14

排水管 – mm

21

5.12. 新风系统设计

新风系统的作用在于给机房的工作人员提供一个舒适的工作环境以及形成室内微正压系统,主动控制室内气候,塑造我们需要的空气环境。具体作用包括两个方面:一,通过主动引进温度、湿度、洁净度受控的室外新风,形成机房区的空气微正压,防止机房外空气不可控的进入机房内,因此达到对机房空气环境的完全控制。二,促使室内空气循环,室内污浊空气不断排除室外,维持良好健康的室内空气品质,保证工作人员对健康空气的需要。以下从这两个方面逐一介绍:

●新风量的计算

根据机房新风设计规范,新风量取以下2者的较大值:

根据要求1: 按工作人员每人需新风 40m3/h计算:

每个机房的工作人员的数量不能确定,且通常情况下按此标准计算的所需新风量要比另两条算出来的新风量要小得多,按另外的两条得出的新风量可以很好地满足工作人员的需要,故此这一条的数据不预计算。

根据要求2:维持室内正压所需风量计算:根据机房施工经验,维持主机房10PA的微正压,需要室内空气容积0.8倍的新风量;

取这两者中的较大值,根据这一原则计算得各机房所需的新风换气机参数如下:

   名称

    参数

  数量

     推荐厂家

新风换气机

风量:≥110m3/h;机外余压:≥75Pa;

具有热交换功能

具有中效过滤功能

标配控制器

带时间编程功能

1

    天方

沐风

五牛

5.13机房制冷系统配置清单

名称

型号

描述

数量

机房空调

SUA0331

9.3KW制冷量

2

漏水检测绳

water leak detector with 1m thread sensor

带式漏水报警,含1米漏水绳

2

上送风风帽

Upflow Plenum

空调上送风帽

2

时钟卡

clock card

时钟卡

2

网卡

PCOWEB

空调网卡

2

5.14机柜系统设计方案

5.14.1设计思路

    由于机房吊顶下净高只有2.6m,基于上述数据,为提高线缆的可用性,方便今后线缆的扩容和维护管理,决定电源线和数据线全部上走线。

5.14.2机柜系统设计方案

    主机房内最终放置1套12KVA模块化UPS供配电系统(机架式安装)。

其余位置可摆放大约6个600mm宽1200mm深柜体。

机柜放置为1排。

    为充分利用机房宽度空间,满足今后新一代中高密度IT设备的安装、供电、制冷、走线等要求,必须慎重考虑机柜的各项性能指标,包括承重、安装深度、前后门的通风率、插线板安装通道、电源线和数据线的走线通道等。

    建议选择19英寸42U安装空间1200深服务器机柜,尺寸为600*1200*2000。动态承重>1000kg,前门通风率>65%,后门通风率>75%,可调节的IT设备安装深度191-1060mm。

    机柜后部具有2-4个插线板的垂直安装通道,方便IT设备电源线布放。机柜后部具有数据线的垂直布放通道,可安装垂直理线器,方便数据线和上走线系统构建。

    采用机柜顶部走线槽。

5.14.3机柜系统配置清单

名称

型号

描述

数量

机柜

AR3100

服务器机柜,宽600mm*深1070mm*高1991mm

6

强电上走线槽

AR8561

电力线槽,宽600mm

6

弱电上走线槽

AR8162ABLK

数据线槽,宽600mm

6

弱电上走线槽

AR8163ABLK

数据线槽带开口,宽600mm

6

机柜配电条

AP7551

基本型配电条,0U,16A,C13*20+C19*4

12

安装服务

5.15监控管理系统系统解决方案

5.15.1设计思路

根据用户的需求,需对机房做视频监控、温湿度监控,并且在同一平台上对UPS和空调的运行状态进行监控。

5.15.2监控系统设计方案

物理环境监控

考虑到机房面积30m2左右,总共将放置6个服务器机柜,建议机房中放置1个视频监控,1个温度传感器,1个温湿度传感器;而且还需要对UPS和空调运行状态进行统一的监控管理。

监控拓扑图如下所示:

    监控系统平面布局图:

安全关机软件

    对于数据中心内的IT负载,UPS不间断供配电系统除了提供不间断的、稳定的、洁净的220V/50Hz交流电源,保护IT设备硬件安全运行外,更重要的是当市电断电电池放电时,可以预先通知,使得服务器甚至存储系统提前安全正常关机,从而保护IT操作系统、应用系统和重要数据的安全,最终提高应用系统可用性。APC公司的SY LX模块化UPS具备这种安全关机功能。

如下图所示为网络连接和安全关机系统图:

5.15.3监控系统方案特点及优势

考虑到该机房的实际情况(面积只有30m2),采用包含摄像头的墙装基站,实现了机房的监控功能,又最大限度的节省了机房空间;而且监控系统和UPS、空调同一品牌,兼容性和以后的扩容升级更好。

APC监控产品NetBotz介绍

NetBotz产品是一个数据中心的实时监测方案,从而避免因物理威胁、环境或人为因素导致的对IT物理设施拓机及损害。可扩展的智能基站,包括传感器、门禁、摄像可以适应小到机柜大到数据中心整个房间的要求。

Netbotz 安全及环境监测系统的主要功能:

  • 对机柜及机房内的温度、湿度环境因素的监控。
  • 漏水监控
  • 烟感
  • 通过干结点、SNMP及4-20MA信号对第三方产品比如空调、发电机、消防等实现监控
  • 视频监测

5.15.4监控系统配置清单

名称

型号

描述

数量

监控主机

NBWL0455

NBWL0455(6)为壁挂式安装主机,内置一个摄像头

1

交换机

AP9224110

24口交换机

1

温度传感器

AP9335T

温度传感器

1

温度传感器

数据中心基础知识

目录

数据中心基础知识

一、 数据中心基本概念

1.1数据中心介绍

1.2数据中心级别划分

1.3、国际标准(Uptime Institute Tier)

1.4、其他补充标准

二、 数据中心组成

2.1数据中心结构

2.2 IT系统组成

2.3数据中心硬件知识

2.3.1、服务器组件

三、 数据中心建设

3.1相关政策

3.1.1国家层面政策文件

3.1.2地方层面政策文件(例举典型地区)

3.1.3申报流程核心文件

3.2申报流程与主管部门

3.2.1前期申报核心部门

3.2.2 关键流程示意图

3.2.3、政策申报实务建议

四、 数据中心算力知识

4.1计算数据中心算力与算效

4.1.1算力的定义

4.1.2算力的分类

4.1.3算力的单位与精度

4.2算力(CP)的计算方法 

4.3算效(CE)的计算方法

五、具体案例—方案配置

5.1 数据中心额定容量

5.2 成长计划

5.3 机柜密度与密度分布

5.4 能效使用效率PUE

5.5设计思路

5.6初步设计规划

5.6.1垂直空间布局

5.6.2平面布局

5.6.3 UPS供配电系统

5.6.4制冷系统

5.6.5机柜及通道封闭系统

5.6.6环境、设备及安防的集中监控系统

5.6.7 数据中心运行管理系统

5.7 扩容方案

5.8 方案优势总结

5.9供配电系统解决方案

5.9.1设计思路

5.9.2建议方案

5.9.3方案介绍

5.9.4配电柜及元器件的选择

5.9.5配电系统配置清单

5.10.  UPS不间断电源解决方案

5.10.1 设计思路

5.10.2建议方案

5.11机房制冷系统解决方案

5.11.1设计思路

5.11.2空调系统方案

5.12. 新风系统设计

5.13机房制冷系统配置清单

5.14机柜系统设计方案

5.14.1设计思路

5.14.2机柜系统设计方案

5.14.3机柜系统配置清单

5.15监控管理系统系统解决方案

5.15.1设计思路

5.15.2监控系统设计方案

5.15.3监控系统方案特点及优势

5.15.4监控系统配置清单

 

1.1数据中心介绍

IDC(Internet Data Center,互联网数据中心)是为企业、政府及互联网服务商提供大规模、高质量服务器托管、网络带宽、数据存储及增值服务的专业化设施。其核心功能包括:

基础设施服务:提供高带宽、高稳定性的网络资源,支持服务器托管、机架出租等。资源保障:通过冗余电力(如UPS、发电机)、恒温恒湿环境、气体灭火系统等,确保设备安全运行。网络优化:采用BGP动态路由技术,解决南北网络互访问题,提升国内外访问效率。

1.1.1典型架构与组成

网络资源:

多线路骨干网接入(如电信、网通、教育网等),总出口带宽可达数十Gbps。支持IP地址动态分配,满足大规模设备接入需求。

物理设施:

机房建筑:抗震强度达8级,承重能力达1600公斤/平方米,保障设备物理安全。

电力系统:双路市电、柴油发电机、UPS不间断电源,确保电力冗余。

安全与管理:7×24小时专业运维团队,实时监控网络状态及设备运行。

多重安全防护:门禁系统、视频监控、入侵检测及DDoS防御。

1.1.2应用场景与价值

企业服务:为金融、电商等企业提供数据存储、云计算及灾备服务。

支持虚拟主机、负载均衡、内容分发(CDN)等增值功能。

公共领域:政府信息化项目、智慧城市建设的核心基础设施。

技术驱动:AI IDC提供高性能计算资源(如GPU集群),支撑人工智能训练与推理。

1.1.3选择IDC服务的关键因素

网络性能:优先选择多线BGP机房,保障跨运营商访问速度。

扩展性:支持带宽按需扩容,满足业务增长需求。

服务能力:SLA(服务等级协议)承诺,如99.9%以上可用性。

提供快速响应(如15分钟故障处理)及定制化解决方案。

1.1.4、行业发展趋势

绿色化:采用液冷技术、自然冷却方案降低能耗(PUE≤1.3)。

智能化:结合BIM技术优化机房运维,实现全生命周期管理。

1.2数据中心级别划分

国内依据《数据中心设计规范》将数据中心分为 A、B、C 三级,主要从供电、冗余、容错能力等维度划分,适用于不同业务场景:

A级(容错型)

核心要求:双路独立供电(2N冗余)、全系统容错设计,支持设备故障或维护时的无缝切换,确保 99.999% 可用性(年宕机时间≤0.8小时)。

适用场景:金融、交通调度、政府核心系统等对中断“零容忍”的关键业务。

B级(冗余型)

核心要求:关键设备冗余配置(如N+1供电),允许单点故障但需保障系统持续运行,可用性 ≥99.99%(年宕机时间≤8.76小时)。

适用场景:医院、科研机构等对中断敏感但容忍度较高的场景。

C级(基本型)

核心要求:单路供电和基础冷却,无冗余设计,可用性 ≥99%(年宕机时间≤88小时)。

适用场景:企业非核心业务或灾备系统。

1.3、国际标准(Uptime Institute Tier)

国际通用标准由美国Uptime Institute制定,分为 Tier I至Tier IV 四个等级,基于冗余能力和可用性划分:

Tier I(基础型)

可用性:99.671%(年宕机≤28.8小时)。

特点:单路供电与冷却,无冗余,维护需停机。

Tier II(部分冗余)

可用性:99.741%(年宕机≤22.6小时)。

特点:关键设备(如UPS、发电机)部分冗余,仍存在单点故障风险。

Tier III(可并行维护)

可用性:99.982%(年宕机≤1.6小时)[。

特点:全系统冗余(N+1),支持在线维护,适用于金融、云计算等高要求场景。

Tier IV(完全容错)

可用性:99.995%(年宕机≤0.4小时)。

特点:2N+1冗余架构,物理隔离的双独立系统,故障或维护不影响运行,满足军事、超算等极致需求。

1.4、其他补充标准

T5级别(非Uptime标准):部分文献提到T5为最高级,强调无水冷却、环境监测等能力,但未被Uptime官方纳入,可能属于企业自定义扩展。

绿色分级:国内《数据中心绿色分级评估标准》按能耗效率划分1A-5A级,反映环保能力。

国标 vs. 国际标准:国标A级≈Tier IV(容错型),B级≈Tier III(冗余型),C级≈Tier I-II(基本型)。

选型依据:需结合业务连续性需求、预算及合规要求。例如,金融核心系统需A级/Tier IV,而企业测试环境可选C级/Tier I。

2.1数据中心结构

2.2 IT系统组成

2.3数据中心硬件知识

2.3.1、服务器组件

服务器的接口 :

服务器的反面接口 :

(1)  CPU

CPu定义 :  中央处理器  (CentraI Processing unit ,  简称cpu) 作为计算机系统的运算和控制核心 , 是信息处理、程序运行的最终执行单元。示例图片 :

cpu核心参数 :

CPU常见故障及原因 :

1. 无法开机 : CPU    硬件    损坏 ,  PIN脚接触不良。

2. 宕机重启 : CPU温度过高、CPU硬件不良。

3. 内存报错 : CPU内存控制器损坏。

4. PCIe    设备报错 : CPU内部的PCIe控制器损坏。

(2)  主板

(3)  硬盘

硬盘分类 : —般分为固态硬盘和机械硬盘

硬盘接口类型:

硬盘参数 : 容量、尺寸、缓存和转速

硬盘定位 :

(4)  网卡

.   电口网卡—般是插网线的 ,  有100M、1000M等规格

  光口网卡—般是插光纤的 , 有1G、10G、25G、40G、100G等规格

(5)  磁盘阵列卡

(6)  电源供应单元

(7)  风扇

2、网络设备及耗材

(1)  交换机

交换机基本接口 :

交换机各接口 :

(2)  路由器

(3)  光纤

光纤分类 :

光纤接口

光纤成对收发 , —根负责发送 , —根负责接收 , 发送端为TX , 接收端为RX

(4)  光缆

光纤配架器:

分光器:

光功率计 :

(5)  光模块

光纤不能直接连接到服务器上使用 , 需要使用光模块来配个使用。

光模块结构 :

光模块接口类型和速率 :

6)  网线

网线分类 :

水晶头接线 :

设备互联法则 :

1. 直通线  (默认采用T568B标准)   电脑<---->ADSL猫 ADSL猫<---->ADSL路由器的WAN口 电脑<---->ADSL路由器的LAN口 电脑<---->Hub或交换机

2. 交叉线     电脑<---->电脑      Hub<---->Hub 交换机<---->交换机 路由器<---->路由器

3.1相关政策

以下是集装箱数据中心相关政策的具体文件名称、内容出处及关键条款的详细说明,按国家层面与地方层面分类整理:

3.1.1国家层面政策文件

1. 《全国一体化大数据中心协同创新体系算力枢纽实施方案》

发布单位:国家发改委、中央网信办、工信部、国家能源局(2021年5月)

支持内容:

布局支持:优先在内蒙古、贵州、甘肃、宁夏等“东数西算”枢纽节点部署绿色数据中心(第八章第三节)。

 能耗优惠:对平均PUE≤1.3的数据中心,放宽能耗指标限制,并给予电价补贴(第五章第二节)。

2. 《新型数据中心发展三年行动计划(2021-2023年)》

发布单位:工信部(2021年7月)

关键条款:

能效要求:新建大型/超大型数据中心PUE≤1.3,到2023年全国数据中心平均PUE≤1.5(第四章第二条)。

技术创新补贴:对液冷、储能、模块化技术应用的示范项目,给予不超过总投资30%的补贴申报资格(第五章财政支持政策)。

3. 《关于严格能效约束推动重点领域节能降碳的若干意见》

发布单位:国家发改委、工信部、生态环境部(2022年2月)

支持内容:

能耗准入:明确将数据中心纳入“高耗能行业”,要求新建项目PUE≤1.5。

4. 《节能节水项目企业所得税优惠目录(2021年版)》

发布单位:财政部、税务总局、国家发改委(2021年12月)

税收优惠:符合条件的数据中心可享受企业所得税“三免三减半”(投产运营后前3年免税,第4-6年减按50%征收)(第三条第四款)。

3.1.2地方层面政策文件(例举典型地区)

1. 《上海市新型基础设施建设项目贴息管理指导意见》(2022年)

支持条款:

贴息比例:对集装箱数据中心项目提供最高50%的贷款贴息(单项目上限5亿元,第三章第八条)。

申报条件:需在市经信委备案,且PUE≤1.25。

2. 《广东省5G基站和数据中心总体布局规划(2021-2025年)》

关键内容:

用地审批简化:集装箱数据中心按“临时建筑”审批,缩短用地流程(附件2“建设管理细则”)。

电价优惠:珠三角地区执行0.55元/度电价,粤东粤西粤北地区叠加30%补贴(第四章能源保障)。

3. 《北京市数据中心统筹发展实施方案(2021-2023年)》

政策重点:

限制性措施:核心城区禁止新建PUE>1.4的项目(第二章区域准入)。

改造补贴:对存量数据中心节能改造(如PUE降至1.3以下)给予最高2000万元奖励(第四章资金扶持)。

4. 《贵州省关于促进大数据产业高质量发展的若干政策措施》

西部政策范例:

“电价+土地”双优惠:

执行0.35元/度专项电价(需满足PUE<1.3,**第三章电价政策)。

工业用地成本减免50%(需承诺连续运营10年以上,**第五章用地保障)。

3.1.3申报流程核心文件

1.《企业投资项目核准和备案管理条例》(国务院令第673号)

要求:数据中心项目需通过地方发改委备案核准(备案流程时限不超过7个工作日)。

2.《建设项目环境影响评价分类管理名录》(生态环境部2021版)*

环评标准:集装箱数据中心属“计算机及电子设备制造业”,需编制环境影响报告表(类别四十三)。

3.《数据中心设计规范》(GB50174-2017)

强制标准:消防、抗震、散热设计要求(如冷冻水系统备用机组配置)。

3.2申报流程与主管部门

3.2.1前期申报核心部门

环节

主管部门

核心要求

项目立项备案

地方发改委/工信局

提交《项目可行性研究报告》备案证明文件

能耗指标审批

发改委能源处

通过省级能耗指标评审(PUE≤1.5为硬性门槛)

环境影响评价(环评)

生态环境局

需第三方环评机构出具《环境影响报告书》

节能审查/能评

节能监察中心

提交《节能评估报告》(重点核算PUE/CLF)

用地规划许可

自然资源局

土地性质需符合工业/科技用地规划

电力接入审批

国家电网/地方供电局

需匹配容量需求(如高压/低压供电方案)

消防验收

住建局消防科

符合《数据中心设计规范》(GB50174)

3.2.2 关键流程示意图

1. 立项阶段:发改委备案 → 能耗指标申请 → 环评/能评同步推进。

2. 建设阶段:用地规划许可 → 电力接入审批 → 建筑施工许可。

3. 验收阶段:消防验收 → 能效复核 → 正式投运。

3.2.3、政策申报实务建议

1. 资质与材料准备

   必交文件:企业营业执照(需含数据中心运营资质)、项目可行性研究报告、第三方环评/能评报告。

   加分资质:高新技术企业认证、ISO50001能源管理体系认证。

2. 政策红利挖掘建议

   补贴类:重点关注地方政府“数字经济专项基金”;

   试点类:争取列入国家或省级“绿色数据中心试点示范项目”(可获资金和技术支持)。

3. 风险规避

  提前与地方发改委/大数据局沟通,确认区域规划准入限制(如部分地区禁止新建PUE>1.4项目)。

 联合第三方服务机构(如IDC咨询公司)优化申报路径,缩短审批周期。

注:具体政策执行细则需结合项目属地化要求调整(如部分地区需经信委联合审批)。建议定期跟踪工信部、发改委官网动态,优先对接地方“大数据/数字经济”主管科室。

4.1计算数据中心算力与算效

4.1.1算力的定义


算力(CP,ComputationaPower)即数据中心的计算能力。指数据中心的服务器通过对数据进行处理后实现结果输出的一种能力,是衡量数据中心计算能力的一个综合指标,数值越大代表综合计算能力越强。算力应是数据中心内所有服务器的算力加和

4.1.2算力的分类


算力(CP)的核心要素包括通用算力(即CP-Nomal,简写CPN)和智能算力(即CP-Tuto,简写CPT)。通用算力是指数据中心服务器仅包含CPU的算力。智能算力是指数据中心服务器不仅包含CPU,也包含GPU或AI芯片的算力。因此数据中心的算力(CP):

4.1.3算力的单位与精度


算力(CP)最常用的单位是FLOPS(Floatimng point OperationsPer Secnd,每秒浮点运算次数)。事实上,FLOPS已成为各种设施(如计算机、超算机、服务器等)衡量计算性能的代名词。FLOPS是一个基本单位,它的更大的数值单位有K(千)、M(兆)、G(吉)、T(太)、P(拍)、E(艾)

表1 算力常见单位


算力精度不同,实际算力水平差别巨大。如果因此衡量算力水平,单一采用运算次数指标是不够的,还应考虑算力精度。
根据参与运算数据精度的不同,可把算力分为:双精度算力(64位,FP64)、单精度算力(32位,FP32)、半精度算力(16位,FP16)及整型算力(INT8、INT4)。数字位数越高,意味着精度越高、可支持的运算复杂程度越高、适配应用场景越广。

表2 算力精度适用场景

但是一般情况下,算力规模测算时统一折算为单精度浮点数(FP32)算力进行统计。

4.2算力(CP)的计算方法

通过上面我们知道算力是通过数据中心内所有服务器的算力加和来统计的。如果我们仅知道IT电力容量时,怎么去估算数据中心(智算中心)的算力呢?
首先我们应选定一款AI服务器,查看它的用电功率。以H100 GPU 服务器为例:CPU耗电约300W*2,内存16根耗电约 250W,硬盘6块盘约200W,风扇耗电约150W,H100GPU卡耗电约700W*8,。而以H100模组整机服务器满配的情况下,单台约功率约10kW。例如数据中心的IT总容量为8000kW,计算服务器台数:

 从上公式,计算出本数据中心可布置800台H100 GPU 服务器。然后计算服务器的GPU算力。

表3 H100 SXM算力参数
通过上表查出,H100 GPU单卡算力为67TFLOPS,单台服务器共有8张GPU卡。在忽略CPU算力的情况下,可计算出数据中心中心的算力规模为:

由上公式,可以算出428,800TFLOPS(半精度FP32),即428.8PFLOPS(半精度FP32)。一般情况下,建议在后面加上算力精度,避免产生歧义。

4.3算效(CE)的计算方法


算效(CE,ComputationalEmciency)是指数据中心算力与功率的比值,即“数据中心每瓦功率所产生的算力”,是同时考虑数据中心计算性能与功率的种效率。数值越大,代表单位功率的算力越强,效能越高。若CP为以单精度浮点数(FP32)的数据中心的算力,PC为数据中心IT设备的整体功率,其单位为瓦(W),则算效CE的计算公式为:

 再以上面的数据中心为例,代入算力428,800TFLOPS(半精度FP32)与IT总容量8000kW进行计算:

 计算出数据中心的算效为5350FLOPS/W。

五、具体案例—方案配置

以施耐德数据中心建设为实例进行方案分析

该数据中心的主要IT应用包括:

  • 支持本大楼和周边人员初期1500,远期最多3000个桌面系统。
  • 提供100台虚拟服务器,满足大楼和四川周边生产的应用需求。
  • 对现有生产数据中心的数据进行备份。预计40T容量。
  • 希望充分利用该机房的物理空间和电力等方面的条件,预留升级能力,远期将该数据中心升级,与现有生产数据中心实现完全互备,形成双机房并列模式。

根据机房的现实物理环境情况,以及预计的初期和远期IT负载的要求,结合目前国内外数据中心基础设施的研究白皮书、最佳实践,提出如下总体设计目标:

5.1 数据中心额定容量

数据中心IT负载额定容量500KW。100个机柜。

根据大楼配电预留功率1200KVA,机房面积408m2,IT负载初期240KW,远期400KW的IT负载需求,决定搭建最大额定容量为500KW的基础设施框架,以保证最大负载时不超过80%的负载率。

5.2 成长计划

采用可在线扩容升级的架构。在数据中心各个时间段都保持合理的可用性和冗余度。空间布局设计按照100个机柜来做布局。

初期启动容量为300KW,初期布局80个机柜。

二期增加20个机柜,扩容到500KW容量。

5.3 机柜密度与密度分布

根据对IT负载分析,决定采用3种功率密度组。其中60个机柜为3KW功率密度,20个机柜为6KW功率密度组,20个机柜为9KW功率密度组。共计100个机柜。

机柜的功率密度与机房布局、机柜配电、制冷系统的设计密切相关。

5.4 能效使用效率PUE

确定年平均PUE=1.8,避免不同时间、不同负载率、不同季节时瞬时PUE的差异。为了实现节能减排,展现本企业的社会责任感,降低数据中心运行耗电量,减少运行电费成本,要求达到上述PUE战略设计目标。

5.5设计思路

究竟应该采用怎样的解决方案呢?让我们首先看看在数据中心基础设施设计过程中主要面临的几个问题:

  • 负载容量难于估计。不能准确估计初期和今后数年内的IT设备真实负载情况,从而不能确定基础设施的容量和规模。
  • 机柜功率密度难于估计。很难估计每个机柜的初期功率密度以及今后密度的变化情况,这使得机柜级的制冷系统和供配电系统的设计非常困难。
  • 扩容困难,灵活性差。基础设施的扩容或机房的改造是非常麻烦的事情,工期很长,需要作出的调整很多,甚至要求现有IT系统断电停止运行。
  • 数据中心效率低,运行成本高,全寿命周期TCO高。建设数据中心需要不少投资,而运行数据中心也需要花费大量的金钱,随着能源价格的不断上升,电费的增长是一个必须被考虑的因数,国家对二氧化碳排放的限制以及节能减排的企业责任的要求,都导致我们必须仔细考虑数据中心的运行效率 ,关注PUE值。而传统的一次性投入的基础设施设计模式将会造成很长一段时间内负载率都比较低,低负载率将带来低效率和高运行成本。必须采用合理规划的模式。
  • 维护困难,操作复杂。传统的基础设施设备均为非标准化设计,要求专业技术人员才能进行维护。这会使得故障恢复时间漫长,降低数据中心可用性。

目前基础设施的架构有两大模式:

  • 采用分离部件,一次性搭建模式。现场人工施工环节多,施工技能要求高。系统总体负载率低,运行效率低,运行成本高。扩容复杂。
  • 采用模块化组件,分期分批构建模式。现场施工环节简单,施工技能要求低。任何时间段均能保持较高负载率,运行效率高,运行成本低。扩容简单。

为解决上述问题,显而易见,采用集成的、模块化、标准化、预制化的组件式的分批分期建设模式,是数据中心基础设施解决方案的合理架构。这种架构的系统能够为用户搭建高可用的、灵活的、绿色的数据中心。

数据中心实际是由三大系统构成的:建筑物、IT系统、基础设施系统。在设计的时候,这三大系统之间的关系必须遵循一个原则,即低关联度的原则。

如果这三者互相之间关联度高,意味着系统互相之间会有很多要求,例如,基础设施采用下走线方案,就要求机房要采用高架地板,要求机房梁下净高不低于3.2米,这个下走线的方案就是属于高关联度方案。

高关联度使得互相之间要求太多,一旦条件受限,方案就不能实施,改变一个条件就使得相关系统也要发生改变,一发而动全身,灵活性降低。

因此,采用低关联度、高兼容性的解决方案是一个重要的设计思路。

5.6初步设计规划

5.6.1垂直空间布局

目前得到的新大楼二楼层高为5.9m,梁下净高5.4m,总体来说机房物理空间条件还是很好的。

基于上述数据,决定如下空间设计。

采用高架地板,高度40cm,地板下走空调管线、电源系统主电缆、电池电缆、消防、监控系统、插座电缆等管线。高架地板下水泥地面做修平除尘刷漆处理,不用做保温。

不采用整体天花板,可采用顶部刷漆涂黑、局部装饰吊片方式,装饰吊片离机柜顶部距离100cm。简约、现代风格。天花板水泥表面可做保温处理,提高制冷效率。

四周墙壁用彩钢板处理,保温,美观。

为提高机柜线缆的可用性,方便今后线缆的扩容和维护管理,首先决定机柜排的电源线和数据线全部上走线。可以采用机柜顶部卡装的走线槽 + 局部吊线架的走线模式,数据线和电源线桥架平行布局,以节省空间高度。

线缆走线槽和吊线架位于机柜正上方。灯盘位于热通道和冷通道上方。其他管道如消防、监控、空调管道也合理布局,不发生干涉。

机柜顶部卡装的走线槽高度为18cm,电源线和数据线走线槽平行布局。

采用42U机柜,高度200cm。

5.6.2平面布局

根据设计思路,机房分两期建设。机房的布局和配置,必须保证今后第二期可在线扩容。

为方便今后扩容,扩大机房利用率,扩大空调利用率,提高能效比,降低施工的复杂度,决定主机房采用开放式布局。

基本设计思想如下:

  • 开放式布局。整个房间全开放。提高空间利用率。减少布线、配电、消防和制冷的麻烦。减少辅助的装饰装修,方便今后的扩容。电池部分尽量远离其他柜体。提高安全性。
  • 就近配电原则。总配电柜靠近市电进线管道井配电。UPS的输出配电盘与IT机柜摆放在一起。配电盘为5U高,机架式安装在IT机柜内,缩短到每个机柜的配电距离。提高配电可用性。
  • 热量集中就近制冷原则。机柜背对背两排布局,中间为热通道,热量集中。便于高效制冷以及制冷共享。
  • 机柜密度组设计原则,对同样密度的机柜采用同样的设计,并尽可能放在一起。
  • 按需规划,预留今后扩容柜体位置。包括机柜位置、电池柜体位置、空调柜体位置。但是空调管道,在第一期建设中即全部安装焊接好,降低今后在机房内动火焊接的风险。

机房整体布局图如下:第一期80个机柜,负载额定功率为240KW;第二期增加20个机柜160KW,总功率达到400KW。

5.6.3 UPS供配电系统

考虑到初期机房的IT负荷为240KW,预期达到400KW的预估情况,同时考虑到IT双电源负载对供配电冗余能力的要求以及今后的在线扩容的要求,决定采用双路模块化供配电系统。

采用两套初期功率为300KW模块化冗余UPS系统,可用性可达99.999%,今后每套模块化UPS可扩展到500KW。满足远期要求

电池方面,由于大楼有双路市电,考虑到制冷延时的问题,考虑到机房温升的速度,机柜功率密度等,UPS系统的电池不宜配置太多,综合因数决定初期配置240KW下30分钟的延时时间。

UPS的输出配电柜。由于预计机柜数量初期80个,远期达到100个机柜,并且分成3个功率密度组,60个3KW,20个6KW,20个10KW机柜。考虑到部分小机、今后可能的刀片式服务器等有额外的配电需求,因此,决定每条供电回路配置2个输出配电柜,总计4个UPS输出分配电柜。每个配电柜内最多配置72个开关,预先配置30个32A开关,30个16A开关。4个配电柜共计240个支路开关。

为实现就近配电,方便今后配电回路扩容,方便实现对每个机柜内插线板的实际用电情况实现监控,降低局部的过载断电事故,决定采用机柜式的精密配电柜,能够对每路支路开关电流和开关状态进行监控。

为方便今后配电回路扩容,采用可在线热插拔模式的开关,并提前安装好支路电流监控。

5.6.4制冷系统

由于预计机柜数量初期80个,远期达到100个机柜,并且分成3个功率密度组,60个3KW,20个6KW,20个10KW机柜。

再考虑到要求年平均PUE=1.8,以及高密度10KW机柜市电断电后的连续制冷问题,决定整个系统采用冷冻水系统,全部采用水平送风模式空调,热通道封闭系统。

室外冷冻水机组采用带有自然冷却功能的风冷冷冻水机组。初期两台250KW制冷量机组并联,预留管线和位置,远期再并联一台250KW机组。

5.6.5机柜及通道封闭系统

根据初期80个机柜,远期达到100个机柜,功率密度为3,6,10KW的要求,以及考虑到会有小型机、刀片式服务器等IT设备根据需求,决定统一采用600宽1200深的42U高服务器机柜。

对于3KW和6KW机柜,每个机柜配置2路16A或32A机架式垂直安装插线板。10KW机柜,每个机柜配置4个垂直安装32A插线板。

机柜两排一组,背对背布局,顶部和侧边封闭,形成热通道遏制系统。

机柜内预装多个1U盲板和走线附件,机柜顶部安装电源线和数据线的卡装式走线槽。选装少量固定托盘,以应对少量塔式设备的安装。

5.6.6环境、设备及安防的集中监控系统

为方便运行管理,降低人员工作量,实现远程无人值守功能,可搭建一套集中的监控管理和报警平台。对基础设施设备(UPS、电池、配电柜、空调等)、环境(温度湿度、噪音、露点、风速、烟感、洁净度等环境参数)、视频等三大部分实行集中的监控管理和报警。

5.6.7 数据中心运行管理系统

为提高数据中心的管理级别,实现资产管理、容量管理、变更管理等,从而优化数据中心各资源调配,还可配置一套数据中心基础设施运行管理专家系统,搭建数据中心的3D模型,从而可以进行模拟推演,实现预测、评估、优化等功能。

5.7 扩容方案

项目分两期建设,第一期80个机柜,240KW 负载,第二期增加20个机柜,增加负载160KW。

如平面布局图,机房由5个微模块构成,每个微模块由20个机柜及相应的制冷配电等构成。第一期搭建4个微模块,第二期再增加一个微模块。

在第一期搭建两套500KW的框架,每套配置300KW UPS。第二期直接在线增加功率模块,扩容到每套500KW。

5.8 方案优势总结

本项目基础设施部分最终采用了模块化、标准化、集成化的整体解决方案,具有如下优势:

  • 快速。模块化组件的模式,提高了方案在设计、建造、维护、扩容等各个阶段的速度。
  • 灵活。模块化的架构,可分批分期构建,非常方便今后的更改与在线扩容。
  • 高效。年平均PUE值可达1.8。就近配电、就近制冷、合理的负载率的原则,使得在数据中心的任何时间段,都具有很好的电能利用率PUE。降低了运维成本,在同样的电力资源下,可支撑更多的IT负载和应用。
  • 适应。对物理空间环境要求低,兼容性强。
  • 高可用性。通过工厂预制组件,降低现场施工的人为故障,通过模块化的架构,提供故障时的快速更换与维修,通过冗余的架构,提高了系统的可用性。
  • 可管理性。采用标准化、模块化架构,搭建集中管理平台。该系统不但可以实现对基础设施系统与设备、环境和安防视频的集中监控,还可以快速搭建数据中心模型,进行模拟分析,实现预测与评估,提供专家级的优化建议。通过资产、容量、能效、变更、CFD等功能模块的部署,该系统不但在运维管理阶段、甚至在数据中心生命周期前期的规划设计、建设验证等阶段,都可以帮助用户更均衡和合理的搭建、分配和利用各种资源,提高数据中心的安全性、可用性和运行效率,提高整个系统的灵活应变能力。

 

 5.9供配电系统解决方案

5.9.1设计思路

本项目大楼配置两路1250KVA市电,一路1000KW发电机。经过ATS切换后形成两个对称的2000A母排。

5.9.2建议方案

5.9.3方案介绍 

机房总体配电系统的示意图如下图所示。

    采用两个强电配电柜,每个配电柜均配置两路市电母排,以及一路市电输入连接铜牌端子,如图示。每个强电柜内配置一个ATS切换开关,每套ATS切换开关后带一套UPS供配电系统,以及为一半的空调,新风,排风系统,照明,插座等供电。

UPS系统为IT机柜、消防系统、监控系统、应急照明系统等供电。

门禁系统、空调、新排风系统与消防系统联动,新风系统可手动控制。

两个强电柜按照大楼预留的1200KVA功率进行总开关和铜排容量设计,配置智能多功能电量仪,并采用Modbus通信接口列入管理系统。

强电系统采用上走线模式。

强电系统预留最终能满足400KW  IT负载所需要的UPS系统、空调系统等的开关。

5.9.4配电柜及元器件的选择

本设计配电柜中断路器为国际知名品牌施耐德、ABB、西门子等产品,柜体选用原厂柜,提供高可用性。

空调/照明断路器带有消防分励脱扣线圈,与消防报警联动。

配电柜中设智能电量监测仪,配电柜各主要断路器带辅助触点,可在监控室监测机房供电情况。

5.9.5配电系统配置清单

名称

型号

数量

市电总输入开关

CVS160N/3P-125A

1

UPS输入开关

CVS100N/3P-100A

1

空调、照明总开关

CVS100N/3P-50A

(MX+OF)

1

空调开关

C65H-D16A/3P

2

新风机开关

C65H-D10A/1P

1

照明开关

C65N-C10A/1P

1

电量仪

PM810

1

5.10.  UPS不间断电源解决方案

5.10.1 设计思路

搭建2N+1的UPS供配电系统,考虑到分两期建设,要求实现在线扩容,最终IT负载达到400KW,并且年平均PUE=1.8,最终决定采用两套高效率的模块化UPS供配电系统,每套额定容量500KW。

5.10.2建议方案

每套模块化UPS初期配置300KW N+1,根据IT发展随时增加UPS功率模块。每套UPS初期各配置4组100AH  12V电池,形成240KW下30分钟延时支撑时间。配置多组电池的目的也是提高电池系统可用性,配置100AH电池是因为性价比最高。

为提高电池系统的可用性和扩展能力,专门配置多功能电池开关柜,预留配置4组电池的接线端子,每组电池配置分开关和熔断器,以进行短路防护。电池系统配置温度传感器,及时报警。

为提高模块化UPS系统的可用性,每套UPS专门配置独立的静态旁路柜体,可在线更换旁路模块,不采用简易的每个UPS功率模块内置小容量静态旁路的模式。

另外,为预防模块化UPS极端故障情况下的不间断供电,每套UPS系统还配置独立的输入输出和维修旁路开关柜,保证在危急情况下也可以经由市电为IT机柜供电。

因此每套UPS包括6个柜体:2个功率模块柜、1个静态旁路模块柜、1个输入输出旁路配电柜体、1个电池开关柜体、4个电池柜。今后根据需要可再增加4个电池柜体。

在400KW负载下,如果每套UPS配置8组100AH电池,可支持32分钟,满足设计要求。

机柜配电的设计。UPS输出配电柜配置支路开关,每个支路开关后连接一个半机柜宽的智能精密配电柜,每个配电柜最大电流400A,支持最多72个单相32A热插拔开关。配置监控系统、液晶显示和通讯网卡,可对每个机柜的支路开关进行实时监控,提供电压、电流、功率、功率因数等数据,可对过载以及开关跳闸进行报警和预设定门限,实现专家级运行管理功能。

初期每套UPS系统配置2个半机柜宽的智能精密配电柜,满足后期机柜的增加对配电的需求。

5.11机房制冷系统解决方案

5.11.1设计思路

为满足年平均PUE≤1.8的设计要求,提供对2-10KW机柜密度的全兼容能力,并可以在线扩容,决定采用机柜排级别的水平送风模式空调。

为降低建造成本,实现自然冷却,决定采用冷冻水换热模式。

5.11.2空调系统方案

5.11.2.1热负荷计算

    机房的热负荷组成由IT设备的热负荷、UPS及PDU的热负荷、照明、物理空间负荷、新风负荷、人体热负荷等负荷组成。机房IT负载初期为240KW,扩容后最大IT负载达到400KW。

    机房暂以4个工作人员计算。

初期IT负载5KW/6KVA时,机房的总热负荷为:

从上图可以看到,初期机房的总热负荷为7.79KW,其中显热量为7.13KW,机房热负荷的显热比为0.92。

远期IT负载增加到400KW时,机房的总热负荷变为:

从上图可以看到,远期机房的总热负荷为12.07KW,其中显热量为11.41KW,机房热负荷的显热比为0.95。

5.11.2.2空调选型及配置

由上述计算得到机房远期总热负荷为12.07KW,建议机房采用2台施耐德上送风后回风的空调机组SUA0331空调机组,形成1用1备。每台SUA0331空调机组送风量为1950CFM,能提供9.3KW制冷量。

这样配置的好处是:前期IT负载为5KW时,机房的总热负荷为7.79KW,此时2台SUA0331空调机组形成1用1备,提高了制冷的可靠性;远期IT负载为9KW时,机房的总热负荷为12.07KW,此时2台SUA0331空调机组也能满足机房制冷需求;即使1台空调坏了,另外1台也能支持机房77%的制冷量,最大限度地提高了机房制冷的可靠性。

机房内部的送回风路径如下图所示,电池柜、UPS柜和机柜一排摆放,机柜前面为冷通道,后面为热通道;为了提高制冷效率,空调顶部加风帽将上送风改为前送风,直接将冷空气送到机柜前面,空调后部回热空气。

  

该机房制冷设计中推荐选用施耐德品牌空调阿米哥系列,该产品系列在精密空调行业属技术非常领先的产品,室内主机部件均采用国际知名品牌,在节能和可靠性方面表现突显,机组本身能效比高,并且采用先进的控制器pCO1具有节能备用机组系统管理模式,运行费用将大大降低,并具有灵活可靠、全正面维护、模块化、扩容方便等特点。

SUA0331精密空调特征:

室内机组采用吸音夹层,达到低噪音的环保要求。

全系列采用最新环保型冷媒,并选用可适应多制式冷媒压缩机。

采用高品质原器件,设备寿命长、稳定度高、维修量极小。

采用特殊铝合金加热片可防止产生辐射性气体。

前开门维修方式,维修容易并将对运行的干扰减至最小。

其独特的可调速室内风机,使机组的显热比与实际环境热负荷分配更加匹配。从而达到最佳的节能效果。

采用柔性涡旋式压缩机,效能高,运动部件少,延长机组寿命,无液击现象。 

SUA0331空调技术参数表 – 风冷型

序号

机组型号

SUA0331

1

制冷量 – kW

9.3

2

送风量 –CFM(m3/h)

1950

3

送风机功率 – W

430

4

风机数量

1

5

额定输入电压– V

380

6

电源频率– Hz

50/60

7

机组最大运行功率  – KW

4.4

8

空调机组制冷剂

R22

9

机组重量 – Kg

150

10

机组高 – mm

1740

11

机组宽 – mm

700

12

机组深 – mm

450

13

机组加湿水管水管 – mm

6

14

排水管 – mm

21

5.12. 新风系统设计

新风系统的作用在于给机房的工作人员提供一个舒适的工作环境以及形成室内微正压系统,主动控制室内气候,塑造我们需要的空气环境。具体作用包括两个方面:一,通过主动引进温度、湿度、洁净度受控的室外新风,形成机房区的空气微正压,防止机房外空气不可控的进入机房内,因此达到对机房空气环境的完全控制。二,促使室内空气循环,室内污浊空气不断排除室外,维持良好健康的室内空气品质,保证工作人员对健康空气的需要。以下从这两个方面逐一介绍:

●新风量的计算

根据机房新风设计规范,新风量取以下2者的较大值:

根据要求1: 按工作人员每人需新风 40m3/h计算:

每个机房的工作人员的数量不能确定,且通常情况下按此标准计算的所需新风量要比另两条算出来的新风量要小得多,按另外的两条得出的新风量可以很好地满足工作人员的需要,故此这一条的数据不预计算。

根据要求2:维持室内正压所需风量计算:根据机房施工经验,维持主机房10PA的微正压,需要室内空气容积0.8倍的新风量;

取这两者中的较大值,根据这一原则计算得各机房所需的新风换气机参数如下:

   名称

    参数

  数量

     推荐厂家

新风换气机

风量:≥110m3/h;机外余压:≥75Pa;

具有热交换功能

具有中效过滤功能

标配控制器

带时间编程功能

1

    天方

沐风

五牛

5.13机房制冷系统配置清单

名称

型号

描述

数量

机房空调

SUA0331

9.3KW制冷量

2

漏水检测绳

water leak detector with 1m thread sensor

带式漏水报警,含1米漏水绳

2

上送风风帽

Upflow Plenum

空调上送风帽

2

时钟卡

clock card

时钟卡

2

网卡

PCOWEB

空调网卡

2

5.14机柜系统设计方案

5.14.1设计思路

    由于机房吊顶下净高只有2.6m,基于上述数据,为提高线缆的可用性,方便今后线缆的扩容和维护管理,决定电源线和数据线全部上走线。

5.14.2机柜系统设计方案

    主机房内最终放置1套12KVA模块化UPS供配电系统(机架式安装)。

其余位置可摆放大约6个600mm宽1200mm深柜体。

机柜放置为1排。

    为充分利用机房宽度空间,满足今后新一代中高密度IT设备的安装、供电、制冷、走线等要求,必须慎重考虑机柜的各项性能指标,包括承重、安装深度、前后门的通风率、插线板安装通道、电源线和数据线的走线通道等。

    建议选择19英寸42U安装空间1200深服务器机柜,尺寸为600*1200*2000。动态承重>1000kg,前门通风率>65%,后门通风率>75%,可调节的IT设备安装深度191-1060mm。

    机柜后部具有2-4个插线板的垂直安装通道,方便IT设备电源线布放。机柜后部具有数据线的垂直布放通道,可安装垂直理线器,方便数据线和上走线系统构建。

    采用机柜顶部走线槽。

5.14.3机柜系统配置清单

名称

型号

描述

数量

机柜

AR3100

服务器机柜,宽600mm*深1070mm*高1991mm

6

强电上走线槽

AR8561

电力线槽,宽600mm

6

弱电上走线槽

AR8162ABLK

数据线槽,宽600mm

6

弱电上走线槽

AR8163ABLK

数据线槽带开口,宽600mm

6

机柜配电条

AP7551

基本型配电条,0U,16A,C13*20+C19*4

12

安装服务

5.15监控管理系统系统解决方案

5.15.1设计思路

根据用户的需求,需对机房做视频监控、温湿度监控,并且在同一平台上对UPS和空调的运行状态进行监控。

5.15.2监控系统设计方案

物理环境监控

考虑到机房面积30m2左右,总共将放置6个服务器机柜,建议机房中放置1个视频监控,1个温度传感器,1个温湿度传感器;而且还需要对UPS和空调运行状态进行统一的监控管理。

监控拓扑图如下所示:

    监控系统平面布局图:

安全关机软件

    对于数据中心内的IT负载,UPS不间断供配电系统除了提供不间断的、稳定的、洁净的220V/50Hz交流电源,保护IT设备硬件安全运行外,更重要的是当市电断电电池放电时,可以预先通知,使得服务器甚至存储系统提前安全正常关机,从而保护IT操作系统、应用系统和重要数据的安全,最终提高应用系统可用性。APC公司的SY LX模块化UPS具备这种安全关机功能。

如下图所示为网络连接和安全关机系统图:

5.15.3监控系统方案特点及优势

考虑到该机房的实际情况(面积只有30m2),采用包含摄像头的墙装基站,实现了机房的监控功能,又最大限度的节省了机房空间;而且监控系统和UPS、空调同一品牌,兼容性和以后的扩容升级更好。

APC监控产品NetBotz介绍

NetBotz产品是一个数据中心的实时监测方案,从而避免因物理威胁、环境或人为因素导致的对IT物理设施拓机及损害。可扩展的智能基站,包括传感器、门禁、摄像可以适应小到机柜大到数据中心整个房间的要求。

Netbotz 安全及环境监测系统的主要功能:

  • 对机柜及机房内的温度、湿度环境因素的监控。
  • 漏水监控
  • 烟感
  • 通过干结点、SNMP及4-20MA信号对第三方产品比如空调、发电机、消防等实现监控
  • 视频监测
 

5.15.4监控系统配置清单

名称

型号

描述

数量

监控主机

NBWL0455

NBWL0455(6)为壁挂式安装主机,内置一个摄像头

1

交换机

AP9224110

24口交换机

1

温度传感器

AP9335T

温度传感器

1

温度传感器

AP9335TH

湿度传感器

1

IP设备监控许可

NBWN0006

设备监测license,,实现最多5个SNMP/IPMI的设备监测

1

服务

AP9335TH

湿度传感器

1

IP设备监控许可

NBWN0006

设备监测license,,实现最多5个SNMP/IPMI的设备监测

1

服务

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值