数据中心概述【12】

数据中心历史

数据中心演进

在这里插入图片描述

数据中心发展雏形-ENIAC

在这里插入图片描述

  • 研制电子计算机的想法产生于第二次世界大战进行期间。当时激战正酣,各国的武器装备还很差,占主要地位的战略武器就是飞机和大炮,因此研制和开发新型大炮和导弹就显得十分必要和迫切。为此美国陆军军械部在马里兰州的阿伯丁设立了“弹道研究实验室”。
  • 美国军方要求该实验室每天为陆军炮弹部队提供6张射表以便对导弹的研制进行技术鉴定。事实上每张射表都要计算几百条弹道,而每条弹道的数学模型是一组非常复杂的非线性方程组。这些方程组是没有办法求出准确解的,因此只能用数值方法近似地进行计算。
  • 电子计算机正是在二次世界大战弥漫的硝烟中开始研制的。如前面所述,当时为了给美国军械试验提供准确而及时的弹道火力表,迫切需要有一种高速的计算工具。因此在美国军方的大力支持下,世界上第一台电子计算机ENIAC于1942年开始研制。参加研制工作的是以宾夕法尼亚大学莫尔电机工程学院的莫西利和埃克特为首的研制小组。
  • 但即使在当时看来,ENIAC也是有不少缺点的:除了体积大,耗电多以外,由于机器运行产生的高热量使电子管很容易损坏。只要有一个电子管损坏,整台机器就不能正常运转,于是就得先从这1.8万多个电子管中找出那个损坏的,再换上新的,是非常麻烦的。

数据中心虚拟化技术商业化-TRADIC

在这里插入图片描述

  • 晶体管计算机是第二代电子计算机。1954年,美国贝尔实验室研制成功第一台使用晶体管线路的计算机,取名“催迪克”(TRADIC),装有800个晶体管。
  • 在20世纪50年代之前第一代,计算机都采用电子管作元件。电子管元件在运行时产生的热量太多,可靠性较差,运算速度不快,价格昂贵,体积庞大,这些都使计算机发展受到限制。于是,晶体管开始被用来作计算机的元件。晶体管不仅能实现电子管的功能,又具有尺寸小、重量轻、寿命长、效率高、发热少、功耗低等优点。使用晶体管后,电子线路的结构大大改观,制造高速电子计算机就更容易实现了。

C/S结构计算模型与互联网

在这里插入图片描述

  • C/S结构
    • 即Client/Server (客户机/服务器) 结构,是大家熟知的软件系统体系结构,通过将任务合理分配到Client端和Server端,降低了系统的通讯开销,需要安装客户端才可进行管理操作。
    • 客户端和服务器端的程序不同,用户的程序主要在客户端,服务器端主要提供数据管理、数据共享、数据及系统维护和并发控制等,客户端程序主要完成用户的具体的业务。
    • 开发比较容易,操作简便,但应用程序的升级和客户端程序的维护较为困难。
  • B/S结构
    • 即Browser/Server (浏览器/服务器) 结构,是随着Internet技术的兴起,对C/S结构的一种变化或者改进的结构。在这种结构下,用户界面完全通过WWW浏览器实现。
    • 客户端基本上没有专门的应用程序,应用程序基本上都在服务器端。由于客户端没有程序,应用程序的升级和维护都可以在服务器端完成,升级维护方便。由于客户端使用浏览器,使得用户界面“丰富多彩”,但数据的打印输出等功能受到了限制。为了克服这个缺点,一般把利用浏览器方式实现困难的功能,单独开发成可以发布的控件,在客户端利用程序调用来完成。

模块化数据中心出现

在这里插入图片描述

  • 模块化数据中心是基于云计算的新一代数据中心部署形式,为了应对云计算、虚拟化、集中化、高密化等服务器发展的趋势,其采用模块化设计理念,最大程度的降低基础设施对机房环境的耦合。集成了供配电、制冷、机柜、气流遏制、综合布线、动环监控等子系统,提高数据中心的整体运营效率,实现快速部署、弹性扩展和绿色节能。从配置形态上,可分为微模块产品MDC和集装箱数据中心产品CDC。
  • 模块化数据中心能满足IT业务部门对未来数据中心基础设施建设的迫切需求,如标准化设计、组件工厂预制、快速上线部署、有效降低初期投资、模块内能源池化管理、动态IT基础设施资源高利用率、智能化运维管理、保障重要业务连续性,提供共享IT服务(如跨业务的基础设施、信息、应用共享等),快速响应业务需求变化,绿色节能型数据中心等。
  • 模块化数据中心的突出优势
    • 高可靠性标准模块
      • 模块化数据中心采用模块化、标准化和高可靠性设计,使得整个系统稳定度高,可依据客户需求与实际情况,在供电和制冷核心设备配置上,提供N+1、N+X、2N等设计方案,安全可靠,满足Tier3到Tier4各种等级的标准。

云数据中心

在这里插入图片描述

数据中心基本组成模块

数据中心说明

在这里插入图片描述

维基百科对数据中心的定义为:“数据中心是一整套复杂的设施,它不仅仅包括计算机、系统和其他与之配套的设备(例如通信和存储系统),还包含冗余的数据通信连接、环境控制设备、监控设备以及各种安全装置。”

数据中心分类

在这里插入图片描述

数据中心是为了接入、承载服务器的业务而建设的基础设施。从种类上可以分为:互联网数据中心(Internet Data Center:IDC),企业数据中心(Enterprise Data Center:EDC)和运营商的业务数据中心(Service Data Center:SDC)。

数据中心的组成

在这里插入图片描述

数据中心的典型架构

在这里插入图片描述

数据中心逻辑架构

在这里插入图片描述

  • 核心网络区:是数据中心网络的核心,连接内部各个服务器区域、企业的内部网络、合作单位的网络、灾备中心和外部用户接入的网络等。
  • 服务器区域:部署服务器和应用系统的区域。出于安全和扩展性的考虑,可以根据应用的类型分为:生产业务区、办公业务区、测试业务区、DMZ区等。
  • 存储区域:包括FC SAN和IP SAN的存储设备和网络。
  • 互联网络区域:是把企业内部用户和外部用户接入到数据中心的区域。出于安全和扩展性的考虑,根据互联的用户类型分为:内部互联网络,合作单位互联网络,Internet互联网络。内部互联网络通过园区网、广域网和企业总部、分支机构的网络互联。合作单位互联网络通过城域专线、广域专线和合作单位的网络互联。Internet互联网络实现互联网公众用户的接入、出差员工通过互联网安全接入、没有通广域网的办公点通过互联网安全接入。
  • 灾备中心互联网络区域:是实现灾备数据中心互联的区域,主要是以传输设备实现与同城灾备中心的互联,以广域网专线实现与异地灾备中心的互联。
  • 运维管理区(管理区域)对网络、服务器、应用系统、存储管理的区域。包括故障管理,配置管理,性能管理,安全管理等。

数据中心物理结构

在这里插入图片描述

数据中心基础设施发展趋势

在这里插入图片描述

  • 前面我们提到“IT系统及信息化建设已经成为企业发展的推动力”,也就是说,企业的发展——准确的说应该是其业务的发展,向IT系统及信息化建设提出不断的需求,它是数据中心发展的原动力。
  • 反过来,数据中心的发展——各种功能、业务的实现,也促进了企业的进一步发展。同样,数据中心的发展对相关材料、技术提出新的要求;反过来,新的技术和材料的产生,使数据中心的新要求成为可能,满足数据中心发展的同时促进了企业的进步。
  • 举例来说,某企业业务的扩展,使其数据中心规模越来越大,日常的运维管理越来越繁琐,越来越复杂,成本也越来越高,风险越来越大;数据中心的智能化管理需求提到了日程上来。数据中心智能化管理的需求,对相应的材料-比如数据的自动采集提出需求;对相应的数据库、应用处理程序和前端展示平台等技术提出需求。随着新材料、新技术的成熟,数据中心智能化管理的实现,在提升数据中心本身的同时,排除了企业发展的瓶颈,促进了企业业务的进一步发展。
  • 从上面的例子可以看出,企业业务发展、数据中心发展和新技术/新材料的发展,三者之间是相辅相成、互相限制又互相促进的;同时,企业业务的发展是数据中心发展的原动力,即需求决定了发展。
  • 那么近年来,数据中心都有哪些变化呢?
  • 首先,就数据中心本身来说,那么它主要有如下几个变化:
  • 数据中心服务由单一服务向多功能服务方向发展;以前的数据中心服务功能相对单一,比如以前的计算中心,主要为企业的生产提供支撑;现在的数据中心,服务功能更多更全面,不但支撑企业的生产,同样为企业管理、企业培训及企业日常活动等多方面提供支撑,甚至可以对外提供服务;

数据中心基础设施组成

在这里插入图片描述

  • 前面我们是从平面空间角度,介绍基础设施的功能房间和分类;下面,我们将从系统角度,介绍基础设施一般包括哪些系统和这些系统的组成。
  • 我们都知道,数据中心场地基础设施是一个包括多个子系统的集成。这张图片是我们华为目前对数据中心L1层基础设施多系统的一个定义,可以看出,我们把基础设施分为8个系统。
  • 供电系统:包括柴油发电机组、ATS、UPS、直流电源柜、交流电源柜、静态转换开关、蓄电池及电池架、电源线缆。
  • 制冷系统:包括精密空调、舒适性空调和通风系统。
  • 还有内部装修、机柜系统、防雷/接地、消防系统、综合布线和集成管理等共8个系统,每个系统都包括若干内容,我们不具体说了。
  • 我们发现,这里定义的8个系统,里面的内容更多的是强调产品,比如供电系统,就是强调的柴油发电机组啊、ATS啊、UPS啊等等产品。不能说这样不行,但是数据中心建设,是一个场地工程项目,要满足某种功能,或满足用户某个需求,一定是要站在系统的角度上来考虑,单独的某个设备或某些设备的堆砌,是不能满足需求的,我们一定要考虑设备的搭配、衔接,设备相互的关系,配以相应的系统设计和安装,才能最终满足某种需求。

数据中心基础设施系统分类

在这里插入图片描述

  • 下面我们抛开设备,从系统的角度谈谈数据中心L1层基础设施的建设内容。
  • 一般建筑设计院通常按系统划分几个专业,包括建筑专业、结构专业、电气专业、暖通专业和给排水专业(有的设计院还专门配置有热能动力和经济专业),由于数据中心的特殊性,业内通常划分为装饰装修、电气系统、空调系统、消防系统、弱电系统和管理系统(有的公司或设计院把管理系统也纳入到弱电系统)。
  • 每个系统都有一定的功能。
  • 电气系统满足设备(包括IT设备、动力设备、辅助设备等)的供电需求;空调系统满足各种环境的空气调节需求;消防系统满足火灾报警和灭火的需求;弱电系统完成数据通讯、安全防范、环境设备监控等多方面需求;这些系统需要装饰装修(包括分隔、部署)来有机的结合,通过管理系统来有效的运作。
  • 可以看出,上述各个系统根据客户的需求,通过合理的规划、部署,相互协调配合,共同搭建起数据中心L1层基础设施。
  • 下面我们来介绍各个系统具体包括哪些内容。
  • 装饰系统:包括各种功能房间的天、地、墙的装饰装修。
  • 电气系统:包括供电系统、UPS配电系统、动力配电系统、照明系统、防雷/接地系统和机柜,这里的机柜相对特殊,也有人把机柜放在装饰系统里或放在弱电系统里。
  • 空调系统:包括精密空调系统、舒适性空调系统、新风系统和排烟/排气系统。
  • 消防系统:包括火灾自动报警系统、火灾自动灭火系统和极早期报警系统。
  • 弱电系统:包括综合布线系统、安防监控系统、环境监控系统和设备监控系统。
  • 管理系统:包括监控平台、大屏幕显示、会议系统、KVM、RFID等。

云数据中心演进趋势

传统数据中心面临挑战

在这里插入图片描述

  • 3G、云计算、物联网等业务快速增长,机房能耗急剧上升,传统DC机房功率密度从3-5kW/柜上升至10kW+,机房局部过热成为设备安全运行的最大风险。
  • 机柜同一朝向布置,级联加热,空调风帽上送风,冷热气流混合严重,机柜内无挡风盲板,热气流回流,线缆布置不合理,阻碍气流输送, 影响维护性,降低可靠性。
  • 机房建设周期1-2年,早期无法准确预测业务发展,机房按需部署,模块化扩展,资源才能高效利用。
  • 传统DC只监控不管理,新一代DC监控+管理,IT设备与机房基础设施实现智能联动,提升管理效率。

传统数据中心挑战-维护成本

在这里插入图片描述

数据中心几乎已经成为“成本中心”、“能耗中心”的代名词。越来越多的服务器和其他IT设备不仅使投资成本(CAPEX)高企,也使得运营成本(OPEX)不断上升。根据埃森哲咨询机构(Accenture)的统计,运营成本已经占到IT总体预算的72%,传统数据中心的成本支出呈图1.1所示的“冰山模式”。

传统数据中心挑战-业务多、设备多

在这里插入图片描述

  • 本页讲述的是IT越来越复杂,小机和x86混合部署,主要强调系统复杂,而不是小机替代的趋势。
  • 企业IT发展的历程,是一个取代“人力”与“人脑”的过程。人体本身就是个非常复杂的系统,企业IT自然也是如此,而且企业IT承担的人力与人脑的工作越多,其复杂度越高。具体表现在,IT支撑的业务应用类型越来越多,IT设备数量也近乎线性的增长。再计入,企业规模的增长因素,企业IT成为了异常庞大的体系。
  • 比如,某大型企业(Telifonica)拥有:
    • 85+ 个数据中心
    • 50,000+ 台服务器
    • 35+ 种编程语言
    • 5+ 操作系统, 20+ 种版本
    • 4000+ 应用
    • 10+ 种数据库
    • 25+ 种中间件
    • 10+ PB 数据量
  • 另外一个企业(华为),拥有15+万员工,140+个国家节点,700个办公地点,每年19.2亿封邮件,每年1.2亿订单,总数据量达到5.69PB,IT系统的作业计算量、存储容量分别年均增长39%、32%!

传统数据中心挑战-流量剧增

在这里插入图片描述

传统数据中心挑战-业务驱动

在这里插入图片描述

  • 微信从11年推出第一个版本,用户数从500万到5000万用了半年时间,但是从2亿用户到3亿用户,用了不到1个月时间,业务增长速度越来越快,如何快速响应业务的资源需求,是传统数据数据中心面临的一个巨大挑战。同样,余额宝从0到2500亿的存款金额用了200天,但是从2500亿到4000亿,只用了1个月时间。
  • 现在众多企业,特别是集团化的企业,随着业务规模越来越大,业务遍布全国/全球各地,如何满足各地的业务需求,提供最佳的业务体验,是一个巨大的挑战,如图中,是华为在全球的多个数据中心:
  • 举个华为全球数据中心的例子:
  • EDC:
  • 东莞主数据中心及同城容灾中心
  • 南京异地容灾中心
  • RDC:
  • 按照100ms圈部署8个RDC,分别覆盖区域内业务:英国/俄罗斯/巴林/南非,香港,美国/墨西哥/巴西
  • SR:SR分为三类
  • 基地类(SR1):上海/北京/成都/杭州/印度/西安/武汉/苏州;
  • 法律遵从类(SR2):多伦多、澳大利亚;
  • 其它类(SR3)

业务需要什么样的数据中心

在这里插入图片描述

  • 主要讲两个:
    • 架构越来越开放,架构开放,保护现有投资,未来容易兼容第三方。
    • 面向服务型,分布式的数据中心演进,后面引出VDC和分布式。

数据中心的发展阶段

在这里插入图片描述

  • 随着信息化的高度整合集中,网络技术的发展,100G网络带宽平台的实现,数据中心
    将最终围绕云计算技术展开业务,趋势于虚拟化、自动化、智能化方向发展。
  • “云计算”是下一代数据中心的平台,具备以下特征:
    • 新颖的商业服务模式:IaaS(基础设施即服务)、PaaS(平台即服务)、SaaS
      (软件即服务)。
    • 无限扩展的计算资源:IT资源通过网络可随时获取、按需使用、易于扩展。
    • 革新性的IT&CT技术:虚拟化、分布式计算、智能化、自动化。

服务型数据中心

在这里插入图片描述

技术趋势一开放,灵活的服务型数据中心。

云数据中心特点

在这里插入图片描述

  • 提升IT设备利用率。云计算通过虚拟化技术实现服务器、存储、网络等IT设备的共享,使多个应用可以在同一个物理服务器上运行,通过资源共享可以使服务器原来只有15%的CPU利用率提升至60%甚至更高。
  • 简化管理。在云数据中心,管理人员面对的是一个个虚拟机,而不是各式各样的物理服务器,通过云管理软件可以统一管理、调度各种规格的虚拟机,无需关心它们所运行的服务器的硬件差异。因此,在云数据中心中运维效率可以提升5倍以上(从数10台/人至500台/人)。
  • 快速部署业务,更敏捷地支撑企业业务发展。全球化、信息化的市场的变化越来越快,因此要求企业的IT系统能更敏捷地支撑业务的变化。云数据中心中IT设备已经组成一个资源池,新业务的IT资源申请只需通过电子模板做网上申请,审批部门审批完成后即可完成,完全改革了传统数据中心需要申请、审批、采购、调测等一系列复杂的过程。从原来的3个月上线时间缩短至数天。
  • 绿色节能。随着服务器利用率的提升,数据中心所需服务器的数量也随之大幅减少。随着服务器所需的电量下降,热负荷及基础设施其他插件的功耗也同步下降。另外随着各种新型制冷技术的出现,如联动管理、冷冻水行级空调、自然冷却技术、密闭冷热通道等也可有效降低数据中心所需制冷能耗。这种多重下降使云数据中心所消耗的电量大大降低,传统数据中心的PUE(Power Usage Effectiveness,即评价数据中心能源效率的指标)一般为2.5~3.0,云数据中心可以降低至1.5甚至更低。

云数据中心的发展趋势

在这里插入图片描述

下一代数据中心整体架构

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

҉人间无事人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值