《云数据中心网络架构与技术》读书笔记 | 第3章 金融数据中心网络的总体架构与方案演进

第3章 数据中心网络的总体架构与技术演进

3.1 数据中心网络技术概述

  • 物理网络的特性,如带宽、时延、扩展性等,都会对虚拟网络的性能和功能产生很大影响

3.1.1 数据中心网络的物理架构

  • 从传统的三层网络架构演进至基于Clos架构的两层Spine-Leaf架构

3.1.1.1 传统的三层网络架构

  • 三层:接入层、汇聚层、核心层
  • 1. 无法支撑大二层网络构建
    • VM需要在任意地点创建、迁移
    • 安全、QoS、网络分析等业务的外移
    • 横向扩展时,只能通过增加PoD的方式扩展,非常依赖于厂家对设备的更新
  • 2. 无法支持流量(尤其是东西向流量)的无阻塞转发
    • 业务架构从单体模式转变为“Web-App-DB”模式,分布式并行计算,导致了东西向流量的大幅提升

3.1.1.2 Spine-Leaf架构

  • Leaf交换机相当于传统的接入交换机,直接连接物理服务器,Spine交换机相当于核心交换机
  • 无论何时类型的流量,都只需要经过Leaf-Spine-Leaf 3个节点即可完成转发
  • 针对超大型数据中心,可采用5级的SpineLeaf架构,Leaf-Spine-Core-Spine-Leaf
  • 跨PoD的两个服务器之间有多条通道,架构可靠性比传统三层网络架构高

3.1.2 数据中心网络的技术演进

  • Fabric的技术演进经历了从xSTP、虚拟机框类技术、L2MP到最终选择NVo3技术的VXLAN

3.1.2.1 xSTP

  • (反正是一堆问题,就不介绍了)

3.1.2.2 虚拟机框类技术

  • 1. 虚拟机框类技术 - CSS/iStack
    • 框式交换机堆叠称为CSS,盒式交换机堆叠被称为iStack
    • 堆叠系统分为主交换机、备交换机、从交换机
    • 框式交换机,主控板分为系统主用主控板、系统备用主控板、冷备用主控板
  • 2. 堆叠系统管理
    • 成员管理:堆叠系统使用成员编号来标识和管理成员设备
    • 配置管理:登录到任意一台成员设备,对整个堆叠系统进行管理和配置。最终登录的都是主交换机
    • 版本管理:与主交换机的软件版本不一致,会自动从主交换机下载系统软件
  • 3. 堆叠常见场景
    • 堆叠建立:完成堆叠软件配置后下点,连接堆叠线缆,最后将所有成员交换机上电
    • 堆叠成员加入与退出:不带电加入,顺序同上
    • 堆叠合并:胜出的主交换机所在的堆叠系统保持原有角色和配置不变,另一个系统所有成员交换机将重新启动,重新加入新堆叠系统
    • 堆叠分裂:移除的从交换机自动复位,重新选举;移除的备交换机发生备升主
    • 堆叠分裂后地址冲突检查:堆叠优先级高、MAC地址小的优先竞争胜出。竞争失败的,则关闭除保留端口外的所有业务端口,停止转发业务报文
    • 堆叠主备倒换:备升主,主变从
  • 4. 堆叠流量本地优先转发
    • 从本设备进入的流量,优先从本设备的出接口转发出去
  • 5. 虚拟机框类技术的优势和劣势
    • 受主交换机性能的限制等
    • 通常被用来保证单节点的可靠性

3.1.2.3 L2MP类技术(该技术已被淘汰,不做整理)

  • 1. TRILL的基本概念
  • 2. TRILL工作机制
  • 3. L2MP类技术的优势和问题

3.1.2.4 跨设备链路聚合技术

  • 技术本质上还是控制平面虚拟化技术。同步机制均为内部实现,如华为M-LAG
  • 1. M-LAG基本概念
    • M-LAG、M-LAG主/备设备、Dfs-group、peer-link、keepalive链路、M-LAG成员口、单归设备
  • 2. M-LAG工作机制
    • M-LAG的建立过程
      • 配对成功后,根据优先级(更高)、MAC地址(更小)选举,发送同步报文进行信息同步,包括MAC表项、ARP表项等
    • M-LAG协议报文
      • 源MAC为自身设备的MAC地址,目的MAC为组播MAC地址,VLAN则是保留的VLAN
      • 在外层以太报文头后封装了一层自定义消息头部
    • M-LAG表项同步
      • 表项封装在同步报文的Data部分中
    • M-LAG协议兼容性
      • 兼容处理携带老版本号发送过来的报文,并且会以老版本的方式与对方设备进行交互
  • 3. M-LAG流量模型
    • CE侧单播访问网络侧单播:双归设备会通过链路聚合将流量哈希到两条链路上
    • CE侧单播互访:SwitchA会将表项同步给SwitchB,SwitchB将流量通过peer-link口发给SwitchA。同理,SwitchA将流量转发给CE1
    • 组播/广播/未知单播流量模型:广播流量通过peer-link发送给对端,从peer-link口接收到的流量不会从M-LAG双归成员口再发送回去
    • 网络侧流量模型:使用VXLAN时,会将双归设备作为一台设备进行协商
  • 4. M-LAG故障场景
    • M-LAG成员口发生故障:网络侧流量会通过peer-link发送给另外一个设备,所有流量均由另外一台设备转发
    • peer-link发生故障:备设备会将自身除了peer-link口、堆叠口和管理口之外的所有物理接口Error-down,此时,所有流量都只会通过M-LAG主设备进行转发
    • 设备故障:设备恢复后会有一个时延,一般为2min
    • 上行链路故障:用管理口作为keepalive链路、配置monitor-link功能
  • 5. M-LAG双归接入隧道类协议
    • 将双归设备虚拟成一台设备,虚拟出一个VTEP,SwitchA和SwitchB均用这个虚拟的VTEP网IP与外界建立VXLAN隧道

3.1.2.5 NVo3类技术

  • 技术代表有VXLAN、NVGRE、STT,当前最火热的VXLAN技术

3.2 金融数据中心网络的总体架构与方案演进

3.2.1 金融企业网络的总体架构

  • 1. 总体架构
    • 总体架构分为服务域、通道域和用户域
      • 用户域包括行内用户、行外用户
      • 通道域中的内网通道由金融企业的核心骨干网、一级骨干网、二级骨干网、网点广域网组成
      • 服务域提供各种金融业务服务,涵盖了数据中心网络和一级分行数据中心网络的全部主机区、服务器区
  • 2. 金融数据中心网络架构
    • 采用交换核心汇聚各物理分区,各物理分区边界部署防护墙、负载均衡设备
    • 采用传统分区设计,二层采用STP组网技术,三层采用OSPF路由设计。网络运维方面的主要痛点在于日常大量的安全ACL的变更
    • 每个分区内部的网络架构的主流采用“汇聚+汇接+接入”的架构,网关在汇聚层
  • 3. 服务器分区网络架构
    • 数据中心的核心为独立部署
    • 分区采用“汇聚+汇接+接入”的架构,每一层采用vPC、堆叠或M-LAG技术实现破环和链路复用
  • 4. 两地三中心网络架构
    • 普遍采用,主中心、同城灾备中心、异地灾备中心通过广域网络互联
    • 二层互联采用区域交换机(网关交换机)直连DWDM
    • 三层互联:采用核心交换机直连DWDM设备;采用核心交换机连接到CPE、MCE设备,然后CPE/MCE设备连接到DWDM设备

3.2.2 金融业务发展诉求与数据中心网络演变

  • 1. 金融业务发展诉求
    • 要求网络架构资源池化、灵活弹性、自动化与服务化
  • 2. FinTech的发展诉求
    • 要求网络支持云化、资源池化、自动化
  • 3. 网络功能需求分析
    • VM与BM接入、容器Docker接入、数据复制、数据备份、统一通信、IP语音系统、呼叫中心、视频会议系统和视频监控系统
  • 4. 网络属性需求分析
    • 网络质量方面的需求
  • 5. 数据中心网络技术架构演变
    • DCN 1.0:水平分区、垂直分层
    • DCN 2.0:资源池阶段
    • DCN 3.0:云化阶段,采用Overlay网络架构,SDN控制器对接云平台,实现端到端的自动化

3.2.3 金融云数据中心的目标架构与设计原则

  • 1. 金融云数据中心的目标架构
    • 基础设施、资源池、服务域、应用域、管理域
  • 2. 金融云数据中心的网络规划设计目标
    • ICS DCN:I,智慧网络,C,云化架构,S,服务驱动
    • 关键技术:Spine-Leaf + VXLAN + EVPN + M-LAG;采用基于EVPN的VXLAN资源池,使得服务器可以灵活弹性部署
  • 3. 设计原则
    • 高可靠、高安全、可维护、易管理、高性能、前瞻性、可演进

3.3 运营商数据中心网络的总体架构与方案演进

3.3.1 运营商企业网络的总体架构

  • 运营商传统端局(交换中心)转变为类似云服务提供商的数据中心,骨干DC、中心DC以及边缘DC组成的3级架构

3.3.2 运营商业务发展诉求与数据中心网络演变

  • 1. 业务发展驱动ICT数据中心融合
    • 急需一套开放、永远在线、自动化的ICT融合基础设施
  • 2. 5G业务驱动数据中心业务及流量变革
    • 用户平面业务逐步下沉到中心DC及边缘DC

3.3.3 运营商云数据中心的目标架构与设计原则

  • 管理组件,如MANO、OpenStack、网络控制器等收到Region DC,拉远管理VNF和交换机,节约服务器成本及管理开销
  • OpenStack作为事实标准,成为开放对接IaaS层的统一平台
  • 多级Spine-Leaf架构、多级数据中心具备横向扩展能力
  • 大规模SDN,网络控制器具备1000+设备管理能力,实现VPC跨数据中心自动化
  • 全网交换机去堆叠华,避免单点故障
  • 数据中心向Hybrid overlay分布式组网演进,满足VNF与PNF同时接入,流量不绕行,低时延转发
  • 数据网络全面支持IPv6,支持IPv4/IPv6动态路由对接能力
  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值