1、云计算技术的发展对数据中心建设提出的新要求是什么?
(1)网络架构:传统三层架构所需网络设备多、路径长、管理复杂,时延高,是瓶颈。
(2)高带宽:现在高带宽业务多、突发流量现象多,要求高速传输。
(3)虚拟化:传统设备利用率低下,采用虚拟化提高利用率。
(4)高可用性:要求网络故障或升级时服务不中断。
(5)安全性:面临安全威胁大,没有成熟防护技术。
(6)低能耗:需要绿色节能,国家要求,国际趋势。
(7)融合性:数据网络与存储网络分离现状阻碍数据中心发展。
2、Uptime Institute的Tier等级划分及相应冗余备份的规定。
Uptime Tier将数据中心分为四个等级,分别是Tier I(基本级)、Tier II(冗余级)、Tier III(同时可维护级)、Tier IV(故障容错级)。冗余备份分别是N、N+1、N+1、N(任何故障后)。
老师的解释:N代表基本冗余容量,N+1加一组冗余,冗余更多,N(任何故障后)在任何故障发生后,保证N个的承载能力不衰减,不降低。
课本P20对N的解释:其中,N+X冗余指系统满足基本需求外,增加了X个单元、X个模块、X个路径或者X个系统,任何N个单元、模块或者路径的故障或维护不会导致系统运行中断,这里X取1到N的任一整数值。
资料中N的指标:在用容量满足IT负载。
3、我国现行数据中心设计标准规范是什么?
国标GB50174-2017《数据中心设计规范》
4、我国数据中心设计规范中的A级数据中心性能要求是什么?(包括一次意外事故的解释)
国标A级数据中心性能要求:A级数据中心的基础设施宜按容错系统配置,在电子信息系统运行期间,基础设施应在一次意外事故后或单系统设备维护或检修时,仍能保证电子信息系统正常运行。
关于“一次意外事故”:意外事故包括操作失误、设备故障、正常电源中断等,一般按照发生一次意外事故做设计,不考虑多个意外事故同时发生。
5、国家新型数据中心三年行动计划的重点任务是什么?节能环保方面的目标是什么? ▲
重点任务:新型数据中心建设布局优化行动、网络质量升级行动、算力提升赋能行动、产业链稳固增强行动、绿色低碳发展行动、安全可靠保障行动。(如果要求对某个任务进行阐述,要做进一步描述)
节能环保方面的目标:到2023年底新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区力争降低到1.25以下。(PUE指数据中心总耗电量与数据中心IT 设备耗电量的比值)
6、数据中心的功能区域划分。
(1)计算机房(2)操作中心(3)储藏间和装载间(4)供电和机械间(5)员工办公室
(1)计算机房。计算机房是数据中心的核心区域,用于计算、存储、网络设备等关键设备以及其配套的机柜系统。
(2)操作中心。用于计算机房设备运行、环境、安全、消防集中监控的场所。
(3)储藏间和装载间。用于设备的临时存放以及设备上架、软件上线前的安装、调试区域。
(4)供电和机械间。用于变配电系统、柴油发电机、UPS、电池组、空调外机等设备存放。
(5)员工办公室。用于日常行政管理的场所。
7、数据中心综合布线系统的通信空间划分。
划分为接入室、主配线区(MDA)、水平配线区(HDA)、区域配线区(ZDA)和设备配线区(EDA)。
(1)接入室。是管理外部网络与数据中心结构化布线系统的接口,这里摆放着用于外部网络和数据中心分界的硬件设备。考虑到数据中心的安全,接入室一般放在计算机机房的外面。如果网络供应商较多,可以有多个接入室。
(2)主配线区。是数据中心的中心区域,这里是数据中心结构化布线系统配线点的位置所在。数据中心至少要有一个主配线区。数据中心网络的核心路由器和核心交换机通常在主配线区内部或邻近主配线区。
(3)水平配线区。是支持布线到设备配线区的一个空间,它是支持终端设备的局域网、存取区域网络和KVM交换机的位置所在。如果机房较小的话,主配线区可以被附近的设备或者机房当成水平配线区使用。
(4)区域配线区。是用于水平配线区与终端设备间需要灵活配置的地方,比如天花板上方或地板下方。通常区域配线区仅放置无源设备。
(5)设备配线区。通常是放置终端设备,包括计算机系统和通信设备的区域。
8、现代数据中心东西向流量的变化。▲
(1)软件架构的解耦:模块化、分层的软件架构设计已经成为了现在的主流。一个系统的多个组件通常分布在多个虚机/容器中。这对网络的影响就是东西向流量变多了。
(2)新的应用的兴起:分布式计算、大数据渐渐兴起,这些应用会在数据中心的服务器之间产生大量的流量,即数据中心的东西向流量是巨大的。
9、M-LAG技术的优点、基本拓扑、协议交互(建立过程)、防环机制(可以忽略)、双主检测链路。▲
优点:
M-LAG作为一种跨设备链路聚合的技术,除了具备增加带宽、提高链路可靠性、负载分担的优势外,还具备以下优势:
1)更高的可靠性
把链路可靠性从单板级提高到了设备级。
2)简化组网及配置
可以将M-LAG理解为一种横向虚拟化技术,将双归接入的两台设备在逻辑上虚拟成一台设备。M-LAG提供了一个没有环路的二层拓扑,同时实现冗余备份,不再需要繁琐的生成树协议配置,极大的简化了组网及配置。
3) 独立升级
两台设备可以分别进行升级,保证有一台设备正常工作即可,对正在运行的业务几乎没有影响。
M-LAG基本拓扑:
如图,用户侧设备Switch(可以是交换机或主机)通过M-LAG机制与另外两台设备(SwitchA和SwitchB)进行跨设备链路聚合,共同组成一个双活系统。如此实现SwitchA和SwitchB共同进行流量转发的功能,保证网络的可靠性。
M-LAG协议交互原理:即M-LAG建立过程:步骤如下:
(1)DFS Group配对
(2)DFS Group协商主备
(3)M-LAG成员接口协商主备
(4)双主检测
(5)M-LAG同步信息
双主检测链路(DAD link):
DAD配置:双主检测链路可以通过外部网络承载(比如,如果M-LAG上行接入IP网络,那么两台双归设备通过IP网络可以互通,那么互通的链路就可以作为双主检测链路)(上图中的Network),也可以单独配置一条三层可达的链路(比如通过管理口)。
10、TRILL技术(协议)的基本原理(基本思想---表述)
TRILL:
中文名:多链路透明互联
全称:Transparent Interconnection of Lots of Links
基本思想:
TRILL 将路由协议 IS-IS的设计思路引入到二层技术中,同时对 IS-IS 进行了必要的改造,形成 TRILL IS-IS 协议。该协议把三层路由的稳定性、可扩展性和高性能引入了二层网络,实现相互间最短路径和等价多路径的计算。
在组网方面,TRILL 网络的核心设备为 RB,由 RB 构成的二层网络称为 TRILL 网络。RB 包含传统交换机的所有功能,同时又具有传统路由器的路由功能。
TRILL网络中的RBridge都被赋予不同的Nickname(2字节),其更类似于IP地址,由此RBridge变为可寻址设备。
TRILL不能在现有的网络(普通的二层网络中)里直接使用。需要专门的设备构成的二层网络才行。
11、TRILL协议工作过程(结合已知单播报文传输的实例---理解) ▲
已知单播报文转发:
当单播以太帧通过位于TRILL网络边缘的Ingress RB进入TRILL网络时,原始帧头前被增加一个额外的“TRILL头”,其中包含Ingress RB Nickname字段和Egress RB Nickname字段,将目的MAC对应的RB的Nickname添加到TRILL头中的Egress RB字段中,将本RB的Nickname添加到TRILL头中的Ingress RB字段中,M值设置为0。“TRILL头”前还要添加外层以太头,由此完成TRILL帧封装。已知单播报文转发时,首先查看Egress RB是否为当前RB,如果是则对报文进行解封装。否则根据Egress RB查找单播路由表及其关联的下一跳表,更新外层以太头中的目的MAC(为下一跳RB的MAC)和源MAC(为当前RB的MAC),从指定接口发送出去。在转发过程中只修改TRILL头中的Hop Count字段。TRILL帧最终在TRILL网络边缘的Egress RB被还原成标准以太帧,并被送出TRILL网。
12、数据中心面临的问题有哪些?VXLAN技术是如何解决这些问题的?
(1)针对虚拟机规模受设备表项规格限制
VXLAN将管理员规划的同一区域内的VM发出的原始报文封装成新的UDP报文,并使用物理网络的IP和MAC地址作为外层头,这样报文对网络中的其他设备只表现为封装后的参数。因此,极大降低了大二层网络对MAC地址规格的需求。
(2)针对网络隔离能力限制
VXLAN引入了类似VLAN ID的用户标识,称为VXLAN网络标识VNI(VXLAN Network Identifier),由24比特组成,支持多达16M的VXLAN段,有效得解决了云计算中海量租户隔离的问题。
(3)针对虚拟机迁移范围受限
VXLAN将VM发出的原始报文进行封装后通过VXLAN隧道进行传输,隧道两端的VM不需感知传输网络的物理架构。这样,对于具有同一网段IP地址的VM而言,即使其物理位置不在同一个二层网络中,但从逻辑上看,相当于处于同一个二层域。即VXLAN技术在三层网络之上,构建出了一个虚拟的大二层网络,只要虚拟机路由可达,就可以将其规划到同一个大二层网络中。这就解决了虚拟机迁移范围受限的问题。
13、何谓Overlay 网络?
Overlay在网络技术领域是一种在网络架构上进行叠加的虚拟化技术模式。在基础网络不进行大规模修改的条件下,实现业务在网络上的承载,并能与其它网络业务分离,且以基于IP的基础网络技术为主。Overlay网络是指建立在已有网络上的虚拟网络,逻辑节点和逻辑链路构成了Overlay网络。
Overlay在传统网络上虚拟出一个虚拟网络,传统网络不需要再做任何适配,这样物理层次网络只对应物理层次的计算(物理机、虚拟化层管理网),虚拟的网络只对应虚拟计算(虚拟机的业务IP)。
Overlay网络具有独立的控制平面和转发平面,对连接在Overlay边缘设备之外的终端系统而言,物理网络是透明的。Overlay网络实现已有网络所不能提供的功能和服务。Overlay网络是物理网络向云和虚拟化的深度延伸,使云资源池化能力可以摆脱物理网络的重重限制。
14、对VXLAN封装的TCP、ping (ICMP)包进行解析,重点理解VXLAN报文格式(即要明确格式定义,也要理解各字段内涵)。 VTEP
基本格式:
外部UDP头
➢UDP目的端口为已知端口4789,源端口可按流分配,标准5元组方式有利于IP网络转发过程中进行负载分担,是原始以太帧通过哈希算法计算后的值。
VXLAN头
➢标志位( 8bits),第5个bit必须设置为1,其余7个bit保留,设置为0
➢VXLAN网络ID(VNI),长24bit,用于标识一个单独的VXLAN网络。
外层IP头
➢其中的IP地址,是隧道两端的VTEP设备地址。源IP地址:VXLAN隧道源端VTEP的IP地址。目的IP地址:VXLAN隧道目的端VTEP的IP地址。
➢源IP地址:如果Hypervisor承担了VTEP工作,则为服务器网卡地址;如果VTEP为接入交换机,则IP地址为出端口上的IP地址或者三层接口地址、loopback地址
➢目的IP地址:可以是单播地址,也可以是多播地址。单播情况下,目的IP地址是目的VTEP的IP地址;多播情况下,引入VXLAN管理层,利用VNI和IP多播组的映射来确定VTEPs。
➢protocol:设置值为0x11,说明承载了UDP数据包。
外层MAC头
➢报文在普通网络中做二、三层转发的MAC地址。源MAC地址:发送报文的源端VTEP的MAC地址
➢目的MAC:本地下一跳设备的MAC地址
➢VLAN: VLAN Type被设置为0x8100,并可以设置Vlan ID tag。
➢Ethertype:设置值为0x8000,指明为IPv4数据包。
从封装的结构上来看,VXLAN提供了将二层网络overlay在三层网络上的能力,并且UDP的封装可以穿越三层网络,比VLAN有更好的扩展性。
要学会解析上面这个图。(如:UDP里两个端口号代表什么意思,IP地址里源IP和目的IP又是什么意思,最下面的TCP、IP又是什么意思,与上边有什么关系)。
上边的两个IP地址是在VXLAN技术里的两个边缘设备(VTEP),一个是源端的VTEP,另一个是目的端的VTEP。上边的这组IP地址是VTEP的IP地址,下边的这组IP地址是搭载的原始报文里涉及的IP地址。这就是那两个端设备要通过(VXLAN技术)隧道进行传递的那个帧它所涉及的那两个终端设备它的源IP地址和目的IP地址。在VXLAN技术里,标志性的端口4789是目的端口,只要使用VXLAN技术封装的报文(UDP)的话,它的目的端口就是固定的4789。
15、Clos架构的原理及应用(结合实例:Facebook.数据中心网络 POD、Google交换机构造)。
图中的矩形是规模小得多的转发单元,相应的成本小得多。
Clos架构的核心思想是:用多个小规模、低成本的单元构建复杂,大规模的架构。上图中,m是每个子模块的输入端口数,n是每个子模块的输出端口数,r是每一级的子模块数,经过合理的重排,只要满足r2≥max(m1,n3),那么,对于任意的输入到输出,总是能找到一条无阻塞的通路。
输入级、中间级、输出级
16、SDN控制器与交换机建立连接的过程、各重要步骤的作用及交互消息的含义(结合实验)实验四之6-1、6-3(自动下发流表之flow mod消息)->重点
在OpenFlow1.3协议的情况下,控制器与OpenFlow交换机的消息完整交互流程如下:
1、 控制器与OpenFlow交换机通过TCP“三次握手”,建立有效的连接。其中,控制器一端的端口号为6633。
2、 控制器与OpenFlow交换机之间相互发送Hello消息,用于协商双方的OpenFlow版本号。(判断自己能否支持对方发送的版本,能支持则版本协商成功,不能支持则回复一条OFPT_ERROR消息。)在双方支持的最高版本号不一致的情况下,协商的结果将以较低的OpenFlow版本为准。如果双方协商不一致,还会产生Error消息。
3、 控制器向OpenFlow交换机发送Features Request消息,请求OpenFlow交换机上传自己的详细参数。OpenFlow交换机收到请求后,向控制器发送Features Reply消息,详细汇报自身参数,包括支持的buffer数目、流表数以及Actions等。
4、 控制器通过Set Config消息下发配置参数,然后通过Get config Request消息请求OpenFlow交换机上传修改后的配置信息。OpenFlow交换机通过Get config Reply消息向控制器发送当前的配置信息。
5、 控制器与OpenFlow交换机之间发送Packet_out、Packet_in消息,通过Packet_out中内置的LLDP包,进行网络拓扑的探测。
6、 控制器与OpenFlow交换机之间通过发送Multipart Request、Mutipart Reply消息,控制器能获取OpenFlow交换机的状态信息,包括流的信息、端口信息等。
7、 控制器与OpenFlow交换机之间通过发送Echo Request、Echo Reply消息,保证二者之间存在有效连接,避免失联。
自动下发流表:
1.控制器发送的第一条flow_mod消息就是删除交换机中的流表项。这条flow_mod消息中table-id设为OFPTT_ALL,表明匹配的流表项将都会被删除。Commend显示为DELETE,Commend表示对流表进行的操作,具体包括五种操作类型:ADD、DELETE、DELETE‐STRICT、MODIFY、MODIFY‐STRICT,当Commend为DELETE就代表删除所有符合一定条件的流表项。
2.发送完DELETE类型的消息后,控制器会发送ADD类型的flow_mod消息来添加新的流表项。
ADD消息可以分为三部分:openflow主体部分、match部分、instruction部分,其中instruction部分可以省略。match部分是匹配条件,instruction部分是指令,当一个数据包满足匹配条件就会执行instruction中的指令。
控制器发送的add消息中action为output,而output的端口是controller,也就是说让交换机将符合匹配要求[以下包分析中的匹配条件:OFPMT_OXM是match的两种类型之一]的数据包都转发给控制器。
17、Mininet的基本应用(不考虑脚本方式)
命令行方式:执行Mininet,创建指定拓扑,连接指定控制器,指定OF交换机类型,指定OF协议版本等。
执行以下命令启动Mininet[sudo mn]
通过“—controller”参数设置Mininet连接远程控制器,并指定控制器的IP和端口号。
$ sudo mn --controller=remote,ip=30.0.1.3,port=6633 --switch=ovsk,protocols=OpenFlow13
创建最小的网络拓扑,即一个交换机下挂两个主机,结果如下图所示。
$ sudo mn --topo minimal
创建一个线型拓扑,例如:4个主机,4个交换机,结果如下图所示。
$ sudo mn --topo linear,4
创建一个单一拓扑,例如:3个主机,1个交换机,结果如下图所示。
$ sudo mn --topo single,3
创建一个树型拓扑,例如:深度2,扇出2,结果如下图所示。
$ sudo mn --topo tree, fanout=2,depth=2
启动Mininet,通过命令创建拓扑。
$ sudo mn --topo linear,2 --controller=remote,ip=30.0.1.3,port=6633 --switch=ovsk,protocols=OpenFlow13
其中:—topo linear,2 表示创建线型拓扑,两个OpenFlow交换机各连接一个主机。—controller=remote,ip=30.0.1.3,port=6633表示连接远程控制器(IP地址为30.0.1.3,端口号为6633)—switch=ovsk,protocols=OpenFlow13表示交换机型号为ovsk,采用OpenFlow1.3。
18、Open vSwitch,流表的管理操作 ▲
命令行方式:通过OF协议,对交换机操作,以增加流表项。
步骤1 执行以下命令,添加网桥,并查看虚拟交换机的基本信息,如下图所示。
# ovs-vsctl add-br br0
# ovs-ofctl show br0
由上图可知,可以查看到交换机dpid、流表数量、性能参数、动作参数、MAC地址等信息。
步骤2 执行以下命令,查看虚拟交换机上各端口的状态,如下图所示。
# ovs-ofctl dump-flows br0
由上图可知,输出的结果中包含了各端口上收到的数据包数,字节数,丢包数,错误数据包数等。
步骤3 执行以下命令,添加一条流表项,设置流表项生命周期为1000s,优先级为17,入端口为3,动作是output:2。
# ovs-ofctl add-flow br0 idle_timeout=1000,priority=17,in_port=3,actions=output:2
说明:这条流表项的作用是将端口3接收到的数据包从端口2输出。
步骤4 执行以下命令,查看交换机上所有流表信息,如下图所示。
# ovs-ofctl dump-flows br0
步骤5 执行以下命令,删除入端口为3的的流表项,删除后,再次查看流表信息,如下图所示。
# ovs-ofctl del-flows br0 in_port=3
# ovs-ofctl dump-flows br0
19、SDN控制器对OF交换机直接链路发现的原理及过程
1、 FloodLight Controller通过Packet_Out报文,封装LLDP报文,分别分发给每个交换机。此时的Packet_Out报文中含有动作:从交换机的每个端口分发LLDP报文。[控制器给每个交换机发多个Packet Out报文、每个Packet Out报文指示交换机从某个端口发出LLDP报文]
2、 此时交换机A根据Controller的动作指令,将LLDP报文从交换机所有接口发出去。交换机B此时能收到这个报文。
3、 LLDP报文经过交换机之间的互联链路到达对端SDN交换机。而此时正因为交换机是SDN无脑交换机,它对于报文的处理都是上送Controller而非本地操作。则此时接收到LLDP的对端交换机(switch B)会将LLDP报文再次封装,封装进Packet_In,并上送至Controller。
4、 此时Controller收到对端SDN交换机(switch B)封装的Packet_In报文,报文里包含本LLDP报文。此时Controller就已经知道所有的拓扑连接关系了。
控制器如何利用LLDP发现拓扑,假设现在有两个OpenFlow交换机连接在控制器上,如下图,简述拓扑发现步骤(以S1作为主体,S2的类似):
1、 SDN控制器构造Packet-Out消息向S1的三个端口分别发送上图所示的LLDP数据包,其中将Chassis ID TLV和Port ID TLV分别置为S1的dpid和端口号。
2、 控制器向交换机S1中下发流[表],流表规则为:将从Controller端口收到的LLDP数据包从它的对应端口发送出去。
3、 控制器向交换机S2中下发流表,流表规则为:将从非Controller接收到LLDP数据包发送给控制器。
4、 控制器通过解析LLDP数据包,得到链路的源交换机,源接口(s1,port1),通过收到的PacketIn消息知道目的交换机(s2)[以及s2的port3?或许不用]。
5、 同理,当SDN控制器向交换机S2发送Packet-Out消息时,可以得知链路源交换机,源接口(s2,port3),通过收到的PacketIn消息知道目的交换机(s1)。如此,控制器便发现了s1与s2之间的完整链路。
20、x86虚拟化实现技术的主要分类及其原理、特点。基本知识:三种:全虚拟化、半虚拟化、硬件辅助虚拟化
使用二进制翻译的全虚拟化
原理:
将内核代码翻译,以便使用一系列作用于虚拟化硬件可达到所需效果的新指令序列替换那些不可虚拟化的指令。同时,用户级的代码直接运行在物理处理器上保证虚拟化的高性能。虚拟机监控器为每个虚拟机提供类似于真实物理系统所具有的服务,如一个虚拟的BIOS,虚拟化设备和虚拟化的内存管理。
特点:
全虚拟化是不需要硬件辅助或操作系统辅助来虚拟化敏感指令和特权指令的唯一方案。hypervisor将操作系统的指令翻译并将结果缓存供之后使用,而用户级指令无需修改就运行,具有和物理机一样的执行速度。全虚拟化为虚拟机提供最佳的隔离和安全性,使移植变得简单。缺点是软件拦截机制,性能开销大。
操作系统辅助或半虚拟化
原理:
修改操作系统内核来将不可虚拟化的指令替换为直接与虚拟化层交互的超级调用(hypercalls)。
特点:
半虚拟化不支持未经修改的操作系统(如Windows 2000/XP),因此它的兼容性和可移植性较差。
由于半虚拟化需要系统内核的深度修改,在生产环境中,半虚拟化在技术支持和维护上会有很大的问题。
硬件辅助的虚拟化
原理:针对特权指令为CPU增加了新的执行模式root模式,可以让VMM运行在root模式下,而root模式位于Ring 0的下面。
特点:
特权和敏感调用自动陷入hypervisor,不再需要二进制翻译或半虚拟化。缺点是需要有硬件支持。
21、常用RAID 类型
了解(没时间就不看)
22、存储虚拟化定义、类别。
定义:
存储虚拟化是为主机、服务器创建分配存储资源的过程。分配过后的存储就像主机和服务器的物理硬盘一样使用起来简单方便。
类别:
块级存储虚拟化、文件级存储虚拟化
(1)块级存储虚拟化。块级存储虚拟化是将磁盘划分为无数个小的区块,每个小小的区块作为存放数据的最小单元,数据存储的时候会随机地存放到这些小的区块上。
(2)文件级存储虚拟化。文件级存储虚拟化屏蔽掉文件服务器与存储系统的细节问题,整合成统一的命名空间。它的目的是抽象出一个抽象的文件系统来屏蔽掉底层复杂的文件系统,让上层用户可以统一地来管理访问数据。因此,文件虚拟化提供的是一个单一的命名空间,方便管理员对目录和文件的管理。
23、NAS 与SAN的比较以及所实现的存储虚拟化的类型。
基础知识:块级、文件级
定义:
NAS(Network Attached Storage 网络附加存储)是一种高性能的、基于IP的集中式文件系统功能的存储设备。
SAN(Storage AeraNetwork 存储区域网络)是通过一种专用于连接存储设备和服务器设备并传输数据的网络连接方式。
NAS与SAN所实现的存储虚拟化的类型:
虚拟化在不同的存储环境中的实现效果不一样。在SAN中存储虚拟化实现的是块级虚拟化,在NAS中实现的是文件级虚拟化。
NAS 与SAN的比较:
SAN和NAS系统都是使用RAID的冗余存储系统。
冗余存储系统能够在一个或多个组件发生故障后恢复,使其比其他类型的存储更稳定。SAN和NAS解决方案对于那些需要存储大量数据并需要能够稳定可靠地访问这些数据的人非常有用。
SAN存储设备通过光纤连接,而NAS存储设备通过TCP/IP连接。由于这个原因,SAN通常用于高级解决方案,而NAS解决方案更易于家庭用户或小型企业使用。为了通过SAN连接,设备必须能够使用SCSI光纤通道。相比之下,NAS比较简单,任何东西都可以通过以太网连接到NAS解决方案
SAN存储设备访问数据块,而NAS存储设备访问单个文件。根据性能需求,这两种选择都可能更可取,这完全取决于数据和系统的体系结构。对于数据和资源密集型的高级应用程序,块数据可能更为可取。但是对于一般存储的数据来说,NAS可能更直接,并可以带来更好的性能。
SAN存储设备连接多个存储设备,而NAS存储设备作为单个专用设备运行。SAN解决方案实质上是创建一组存储设备,它们都在同一个网络上运行。另一方面,NAS数组作为存储在单个设备中。从功能上讲,这意味着SAN和NAS的运行方式截然不同:一个主要依赖于网络,而另一个主要依赖于硬件。
SAN基于主机的虚拟存储,依赖于代理或管理软件;NAS基于存储设备的虚拟化,依赖于提供相关功能的存储模块。
24、数据中心容灾系统的分类、等级划分以及各级容灾系统的含义。
基础知识:四级
容灾系统分类:
数据级容灾。应用级容灾。
容灾等级:
0级:无异地容灾备份。这一级的容灾是没有恢复能力,备份数据只是备份在本地而非异地,当灾难发生之后无法恢复数据。
1级:本地备份加异地备份。这一级的容灾系统是在本地备份之后,先把关键性的数据备份到异地,非关键性的数据随后慢慢复制到异地。在灾难发生之后,首先恢复关键性的数据,然后再恢复非关键性的数据。这种方案成本低,配置简单,但是当数据量达到一定级别,管理起来非常麻烦。
2级:热备份中心。次级的备份在异地建立一个热备份中心,通过网络连接本地与异地的数据中心,采取同步或者异步的方式进行备份。备份中心在正常状态下不提供服务,当灾难发生之后热备份中心迅速接替源数据中心业务,从而保证业务的连续性。
3级:活动容灾数据中心。在相隔较远的异地再建立一个与原地相同的数据中心,两数据中心之间是相互备份的,并且都处于活动状态。当其中一个数据中心发生灾难时,另一个数据中心接替工作业务继续提供服务。若投入的资金足够多,可以构建零数据丢失的数据中心,即两个数据中心之间互相作为镜像,这个需要的成本是相当高的,但恢复速度也是快的。
25、网络子系统运维管理的内容与方式:文档建立(分类、内容)、监控软件(功能、组成,以Zabbix为例)
(1)文档建立(分类、内容)
1.网络整体拓扑
按照数据中心的总体架构以及设备连接情况,画出数据中心的网络拓扑图。拓扑图需标识清楚设备名称、设备与设备连接的接口及连接介质类型。
2.网络设备基本信息
这个部分记录了网络设备的基本信息,包括设备品牌型号、规格参数、机房位置及上架信息、系统版本、IP地址等。
3.地址表
把整个网络中所有IP地址、MAC地址、交换机端口的对应关系整理成一个表格,当网络出现故障时,就可以通过这个表格进行快速的故障定位。
(2)监控软件(功能、组成,以Zabbix为例)
运维人员可以利用Zabbix实现从核心设备到接入设备的监控,通过对每台设备和接口关联对应的触发器,可以看到每台设备是否正常工作,也能看到每台设备连接的链路状态。如果出现故障,系统会给出提示,运维人员可以快速定位故障点并及时采取措施。
运维人员可以利用 Zabbix对端口流量进行监控。Zabbix系统可以对产生非法流量的源头进行定位,并且产生告警信息通知运维人员,以保证网络的正常应用不受非法流量影响。利用Zabbix系统可以查看每台设备任意端口的流量,可以设定相应的阈值,当端口的非法流量超过某个阈值时,会产生告警。