深信服超融合技术架构(重点介绍主要模块)

超融合架构定义

超融合基础架构,是一种将计算、网络和存储等资源作为基本组成元素,根据系统需求进行选择和预定义的一种技术架构,具体实现方式上一般是指在同一套单元节点( x86服务器)中融入软件虚拟化技术(包括计算、网络、存储、安全等虚拟化),而每一套单元节点可以通过网络聚合起来,实现模块化的无缝横向扩展( scale-out ),构建统一的资源池。
在这里插入图片描述

系统总体架构

在这里插入图片描述

在这里插入图片描述

1.aSV 计算机虚拟化平台

1.1 概述

计算资源虚拟化技术就是将通用的 x86 服务器经过虚拟化软件,对最终用户呈现标准的虚拟机。这些虚拟机就像同一个厂家生产的系列化的产品一样,具备系列化的硬件配置,使用相同的驱动程序。

虚拟机的定义: 虚拟机 (Virtual Machine) 是由虚拟化层提供的高效、独立的虚拟计算机系统,每台虚拟机都是一个完整的系统,它具有处理器、内存、网络设备、存储设备和 BIOS ,因此操作系统和应用程序在虚拟机中的运行方式与它们在物理服务器上的运行方式没有什么区别。

虚拟机与物理服务器相比:虚拟机不是由真实的电子元件组成,而是由一组虚拟组件(文件)组成,这些虚拟组件与物理服务器的硬件配置无关.

与物理服务器相比,虚拟机具有以下优势:

抽象解耦

  1. 可在任何X86 架构的服务器上运行;
  2. 上层应用操作系统不需修改即可运行;

分区隔离

  1. 可与其他虚拟机同时运行;
  2. 实现数据处理、网络连接和数据存储的安全隔离;

封装移动

  1. 可封装于文件之中,通过简单的文件复制实现快速部署、备份及还原;
  2. 可便捷地将整个系统(包括虚拟硬件、操作系统和配置好的应用程序)
    在不同的物理服务器之间进行迁移,甚至可以在虚拟机正在运行的情况下进行迁移;

Sangfor企业云解决方案中的服务器虚拟化采用aSV服务器虚拟化管理系统, 通过将服务器硬件资源虚拟化,用于创建若干虚拟机。用户可以在这些虚拟机上安装操作系统和各种软件,挂载磁盘,调整系统设置等。aSV属于虚拟化架构中的VMM,即虚拟化资源监视器,或称为Hypervisor

1.2 aSV 技术原理

Hypervisor 是所有虚拟化技术的核心。非中断地支持多工作负载迁移的能力是 Hypervisor 的基本功能。当服务器启动并执行 Hypervisor 时,它会给每一台虚拟机分配适量的内存、 CPU、网络和磁盘,并加载所有虚拟机的客户操作系统。

1.2.1 Hypervisor 分类

Hypervisor ,常见的Hypervisor 分两类

(1)裸金属型

指 VMM 直接运作在裸机上 , 使用和管理底层的硬件资源, GuestOS 对真实硬件资源的访问都要通过 VMM 来完成,作为底层硬件的直接操作者,VMM 拥有硬件的驱动程序。裸金属虚拟化中 Hypervisor 直接管理调用硬件资源,不需要底层操作系统,也可以理解为 Hypervisor 被做成了一个很薄的操作系统。

这种方案的性能处于主机虚拟化与操作系统虚拟化之间。代表是VMware ESX Server 、 CitrixXenServer 和 Microsoft Hyper-V , LinuxKVM。在这里插入图片描述

(2)宿主型

指 VMM 之下还有一层宿主操作系统,由于 Guest OS 对硬件的访问必须经过宿主操作系统,因而带来了额外的性能开销,但可充分利用宿主操作系统提供的设备驱动和底层服务来进行内存管理、进程调度和资源管理等。主机虚拟化中 VM 的应用程序调用硬件资源时需要经过 :VM 内核 ->Hypervisor-> 主机内核,导致性能是三种虚拟化技术中最差的。
在这里插入图片描述

主机虚拟化技术代表是VMware Server ( GSX ) 、 Workstation 和 Microsoft Virtual PC 、Virtual Server 等。

由于主机型 Hypervisor 的效率问题 ,深信服的 aSV 采用了裸机型Hypervisor 中的 Linux KVM 虚拟化,即为裸金属型。

(3) aSV 的 Hypervisor 实现

相关博客链接
https://blog.csdn.net/csdn10086110/article/details/92716833

1.3 aSV 技术特性

1.3.1 内存 NUMA 技术

非统一内存访问( NUMA)是服务器CPU 和内存设计的新架构。传统的服务器架构下把内存放到单一的存储池中,这对于单处理器或单核心的系统工作良好。但是这种传统的统一访问方式,在多核心同时访问内存空间时会导致资源争用和性能问题。毕竟, CPU应该可以访问所有的服务器内存,但是不需要总是保持占用。实际上, CPU仅需要访问工作负载实际运行时所需的内存空
间就可以了。

因此 NUMA 改变了内存对 CPU 的呈现方式。这是通过对服务器每个 CPU的内存进行分区来实现的。每个分区(或内存块)称为 NUMA 节点,而和该分区相关的处理器可以更快地访问 NUMA 内存,而且不需要和其它的 NUMA节点争用服务器上的资源(其它的内存分区分配给其它处理器)。NUMA 的概念跟缓存相关。处理器的速度要比内存快得多,因此数据总是被移动到更快的本地缓存,这里处理器访问的速度要比通用内存快得多。
NUMA 本质上为每个处理器配置了独有的整体系统缓存,减少了多处理器试图访问统一内存空间时的争用和延迟。

NUMA 与服务器虚拟化完全兼容,而且 NUMA 也可以支持任意一个处理器访问服务器上的任何一块内存区域。某个处理器当然可以访问位于不同区域上的内存数据,但是需要更多本地 NUMA 节点之外的传输,并且需要目标NUMA 节点的确认。这增加了整体开销,影响了 CPU 和内存子系统的性能。NUMA 对虚拟机负载不存在任何兼容性问题,但是理论上虚拟机最完美的方式应该是在某个 NUMA 节点内。这可以防止处理器需要跟其它的 NUMA 节点交互,从而导致工作负载性能下降。

深信服的 aSV 支持 NUMA 技术,使得 hypervisor 和上层 OS 内存互连,这样 OS 不会在 CPU 和 NUMA 节点之间迁移工作负载。

1.3.2 SR-IOV

通常针对虚拟化服务器的技术是通过软件模拟共享和虚拟化网络适配器的一个物理端口,以满足虚拟机的 I/O 需求,模拟软件的多个层为虚拟机作了I/O 决策,因此导致环境中出现瓶颈并影响 I/O 性能。

aSV虚拟化平台提供的SR-IOV 是一种不需要软件模拟就可以共享 I/O 设备 I/O 端口的物理功能的方法,主要利用 iNIC 实现网桥卸载虚拟网卡,允许将物理网络适配器的 SR-IOV虚拟功能直接分配给虚拟机,可以提高网络吞吐量,并缩短网络延迟,同时减少处理网络流量所需的主机 CPU 开销。

技术原理: SR-IOV ( SingleRoot I/O Virtualization )是 PCI-SIG 推出的一项标准,是虚拟通道(在物理网卡

  • 15
    点赞
  • 136
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值