A100/H100/GH200集群:网络架构及光模块需求

 传统数据中心经历了从三层架构到叶脊架构的改变,主要是为了适配数据中心东西向流量的增长。随着数据上云的进程持续加速,云计算数据中心规模持续扩大,而其中所采用的的虚拟化、超融合系统等应用推动数据中心东西向流量大幅增长——根据思科此前的数据,2021年数据中心相关的流量中,数据中心内部的流量占比超过70%。

以传统三层架构到叶脊架构的转变为例,叶脊网络架构下,光模块数量提升最高可达到数十倍。

基于缩小网络瓶颈考虑,大规模AI集群的网络架构需要满足大带宽、低时延、无损的需求。智算中心网络架构一般采用Fat-Tree(胖树)网络架构,具有无阻塞网络的特点。

同时为避免节点内互联瓶颈,英伟达采用NVLink实现卡间高效互联。对比PCIe,NVLink具有更高带宽优势,成为英伟达显存共享架构的基础,创造了新的GPU到GPU的光连接需求。

A100:网络结构及光模块需求测算

每个DGX A100 SuperPOD基本部署结构信息为:140台服务器(每台服务器8张GPU)+交换机(每台交换机40个端口,单端口200G);网络拓扑结构为IB fat-tree(胖树)。

关于网络结构的层数:针对140台服务器,会进行三层网络结构部署(服务器-Leaf层交换机-Spine层交换机-Core层交换机),每层交换机对应的线缆数分别为1120根-1124根-1120根。

假设服务器和交换机之间采用铜缆,基于一条线缆对应2个200G光模块计算,GPU:交换机:光模块=1:0.15:4;若采用全光网络,GPU:交换机:光模块=1:0.15:6。

H100:网络结构及光模块需求测算

每个DGX H100 SuperPOD基本部署结构信息为:32台服务器(每台服务器8张GPU)+12台交换机;网络拓扑结构为IB fat-tree(胖树),交换机单端口400G速率,可合并形成800G端口。

针对4SU集群,假设为全光网络、三层Fat-Tree架构下,服务器和Leaf层交换机使用400G光模块,Leaf-Spine和Spine-Core使用800G光模块,则400G光模块数量为32*8*4=256只,使用800G的数量为32*8*2.5=640只。

即GPU:交换机:400G光模块:800G光模块=1:0.08:1:2.5。

GH200:网络结构及光模块需求测算

针对单个GH200集群:256张超级芯片GPU互联,采用2层fat-tree网络结构,其中两层网络均采用NVLink switch来完成搭建,第一层(服务器和Level 1交换机)之间使用了96台交换机,Level 2使用了36个交换机。NVLink switch的配置参数为:每台交换机拥有32个端口,每个端口速率为800G。由于NVLink 4.0对应互联带宽双向聚合是900GB/s,单向为450GB/s,则256卡的集群中,接入层总上行带宽为115200GB/s,考虑胖树架构以及800G光模块传输速率(100GB/s),800G光模块总需求为2304块。因此,GH200集群内,GPU:光模块=1:9。

若考虑多个GH200互联,参考H100架构,3层网络架构下,GPU:800G光模块需求=1:2.5;2层网络架构下,GPU:800G光模块=1:1.5。即多个GH200互联情况下,GPU:800G光模块上限=1:(9+2.5)=1:11.5。

总结:

随着算力集群不断提升网络性能,高速光模块需求弹性加大。以英伟达集群为例,加速卡所适配的网卡接口速率和其网络协议带宽密切相关,A100 GPU支持PCIe 4.0,最大支持单向带宽为252Gb/s,即PCIe网卡速率需小于252Gb/s,因此搭配搭配Mellanox HDR 200Gb/sInfiniband网卡;H100 GPU支持PCIe 5.0,最大支持单向带宽为504Gb/s,因此搭配Mellanox NDR 400Gb/s Infiniband网卡。

所以,A100向H100升级,其对应的光模块需求从200G提升到800G(2个400G端口合成1个800G);而GH200采用NVLink实现卡间互联,单向带宽提升到450GB/s,对应800G需求弹性进一步提升。

若H100集群从PCIe 5.0提升到PCIe 6.0,最大支持单向带宽提升到1024Gb/s,则接入层网卡速率可提升到800G,即接入层可使用800G光模块,集群中单卡对应800G光模块需求弹性对应翻倍。

Meta算力集群架构及应用

Meta此前发布“Research SuperCluster”项目用于训练LLaMA模型。RSC项目第二阶段,Meta总计部署2000台A100服务器,包含16000张A100 GPU,集群共包含2000台交换机、48000条链路,对应三层CLOS网络架构,若采用全光网络,对应9.6万个200G光模块,即A100:光模块=1:6,与前文测算的A100架构相同。

 针对LLaMA3的训练,Meta使用了H100 GPU,包含IB和以太网集群,最大均可支持3.2万张GPU。针对以太网方案,根据Meta披露的信息,其算力集群仍采用了有收敛的叶脊网络架构——每个机架2台服务器,接入1个TOR交换机(采用Wedge 400),一个集群中有252台服务器;Cluster交换机采用Minipack2 OCP机架交换机,一个集群中共使用18个Cluster交换机,推算收敛比为3.5:1;汇聚层交换机共18台(采用Arista 7800R3),收敛比为7:1。集群主要采用400G光模块,从集群架构来看,以太网方案仍有待在协议层面进一步突破,推动无阻塞网络的构建,关注超以太网联盟等进展。

AWS算力集群架构及应用

AWS推出了第二代EC2 Ultra Clusters集群,包括H100 GPU和自研Trainium ASIC方案。AWS EC2 Ultra Clusters P5实例(即H100方案)提供3200 Gbps的聚合网络带宽并支持GPUDirect RDMA,最大可支持2万张GPU组网;Trn1n实例(自研Trainium方案)单集群16卡,提供1600 Gbps的聚合网络带宽,最大支持3万张ASIC组网,对应6 EFlops算力。

AWS EC2 Ultra Clusters卡间互联分别采用NVLink(H100方案)和NeuronLink(Trainium方案),集群互联采用自研EFA网络适配器。对比英伟达方案,AWS自研Trainium ASIC集群单卡上行带宽推算为100G(1600G聚合带宽/16卡=100G),因此AWS目前架构中暂无800G光模块需求。

Google算力集群架构及应用

Google最新的算力集群由配置为三维环面的TPU阵列组成。一维环面对应每个TPU连接到相邻的2个TPU,二维环面为2个正交的环,对应每个TPU连接到相邻的4个TPU;目前谷歌TPUv4即三维环面,每个TPU连接到6个相邻的TPU。

基于此,每个机柜内部构建4*4*4=64颗TPU的3D网络结构。3D结构的外表部分连接到OCS,则一个4096颗TPU互联对应64个机柜、48个OCS交换机即48*64=6144个光模块,内部则采用DAC连接(18000条),则对应TPU:光模块=1:1.5。在OCS方案下,光模块需要采用波分复用方案,并增加环形器(Circulator)减少光纤数量,其光模块方案具有定制化特征(800G VFR8)。

以上内容来自智能计算芯世界


台湾突发7.4级强震!全球GPU、存储、芯片或将大震荡? - 知乎 (zhihu.com)

大模型训练推理如何选择GPU?一篇文章带你走出困惑(附模型大小GPU推荐图) - 知乎 (zhihu.com)

一文看懂英伟达A100、A800、H100、H800各个版本有什么区别? - 知乎 (zhihu.com)

AI核弹B200发布:超级GPU新架构30倍H100单机可训15个GPT-4模型,AI进入新摩尔时代 - 知乎 (zhihu.com)

紧跟“智算中心”这波大行情!人工智能引领算力基建革命! - 知乎 (zhihu.com)

先进计算技术路线图(2023) - 知乎 (zhihu.com)

建议收藏!大模型100篇必读论文 - 知乎 (zhihu.com)

马斯克起诉 OpenAI:精彩程度堪比电视剧,马斯克与奥特曼、OpenAI的「爱恨纠缠史」 - 知乎 (zhihu.com)

生物信息学必备网站大全 - 知乎 (zhihu.com)

生物信息学简史 - 知乎 (zhihu.com

2023第一性原理科研服务器、量化计算平台推荐 - 知乎 (zhihu.com)

Llama-2 LLM各个版本GPU服务器的配置要求是什么? - 知乎 (zhihu.com)

人工智能训练与推理工作站、服务器、集群硬件配置推荐

添加图片注释,不超过 140 字(可选)

整理了一些深度学习,人工智能方面的资料,可以看看

机器学习、深度学习和强化学习的关系和区别是什么? - 知乎 (zhihu.com)

人工智能 (Artificial Intelligence, AI)主要应用领域和三种形态:弱人工智能、强人工智能和超级人工智能。

买硬件服务器划算还是租云服务器划算? - 知乎 (zhihu.com)

深度学习机器学习知识点全面总结 - 知乎 (zhihu.com)

自学机器学习、深度学习、人工智能的网站看这里 - 知乎 (zhihu.com)

2023年深度学习GPU服务器配置推荐参考(3) - 知乎 (zhihu.com)

 多年来一直专注于科学计算服务器,入围政采平台,H100、A100、H800、A800、L40、L40S、RTX6000 Ada,RTX A6000,单台双路256核心服务器等。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值