InfiniBand:赋能高性能计算网络的卓越引擎

  🗺🗺随着数据分析、机器学习等高数据吞吐量应用的快速扩展,对高带宽和低延迟互连的需求也扩展到更广阔的市场。在这个背景下,越来越多的高性能计算数据中心选择采用InfiniBand技术。相较于以太网,InfiniBand是一种专为高速互连而设计的网络技术,在全球许多高性能计算设施中备受关注🚨🚨

  🛫🛫本次航班将从以下几个角度带领大家认识与了解InfiniBand技术和InfiniBand网络。

目录

🛸 InfiniBand的历史

🛸 InfiniBand的概述

🛸 探索高性能计算数据中心中的 InfiniBand 网络

🛸 InfiniBand网络如何满足高性能计算数据中心的需求

🛸 InfiniBand网络在高性能计算数据中心中的优势

            🪂  网络速率

            🪂  速度

            🪂  可扩展性

🛸 InfiniBand的历史

⚓ InfiniBand诞生于1999年,由两个相互竞争的项目合并而成:Future I/O和Next Generation I/O。 InfiniBand贸易协会成立,其中包括Compaq,Dell,Hewlett-Packard,IBM,Intel,Microsoft和Sun。 

⚓ InfiniBand 体系结构规范的 1.0 版于 2000 年发布。最初,IB可以同时取代I/O、以太网、专用集群网络和光纤通道的慢速PCI总线。

⚓ Infiniband设备由以下公司制造:Qlogic,Mellanox,Voltaire,Topspin。

⚓ Infiniband相关重要日期

⭐ 2001 年:Mellanox开始出货以 10 Gbps (4x SDR) 运行的 InfiniBridge 系列设备,并出货了 10,000 多个 InfiniBand 端口。

⭐ 2002 年:英特尔宣布 IB 将开发PCI Express 总线,而不是出货芯片。Microsoft 终止了对该项目的支持,转而使用以太网扩展。Sun 和 Hitachi 继续支持 IB。

⭐ 2004 年:IB 开始用作集群网络,提供比以太网更低的延迟。 Open Fabrics 联盟为 Linux 开发了一个标准化的 InfiniBand 软件堆栈。第二年,Linux 内核获得了 IB 支持。

⭐ 2005年:IB开始被用作连接存储设备的网络。

⭐ 2005 年:Topspin 被思科收购。

⭐ 2009 年:在世界 500强超级计算机中,千兆以太网被用于 259 个集群,InfiniBand 被用于 181 个集群。

⭐ 2010 年:市场领导者 Infiniband、Mellanox 和 Voitaire 合并。除此之外,还有另一家IB设备制造商,它生产更多的光纤通道设备。甲骨文对 Mellanox 进行了重大投资。

⭐ 2011 年:FDR 交换机和适配器在国际超级计算大会上发布。

⭐ 2012 年:英特尔收购了与 InfiniBand 相关的 QLogic 技术。

⭐ 2019 年: NVIDIA收购Mellanox,成为基于 InfiniBand 的解决方案的独家供应商。

🛸 InfiniBand的概述

  Infiniband(有时缩写:Infiniband)IB)是一种用于高性能计算的高速交换计算机网络; InfiniBand作为一种由InfiniBand贸易协会(IBTA)指导制定的标准化通信规范,专注于设计一种适用于数据中心内部服务器、通讯基础设施设备、存储解决方案以及嵌入式系统之间互连的交换结构体系。其对标准化的高度关注确保了在高性能计算网络环境中各组件间实现无缝集成和高效信息传递。

  🚩🚩凭借其显著的高带宽及低延迟特性而闻名遐迩,目前支持诸如FDR 56Gbps、EDR 100Gbps、HDR 200Gbps乃至NDR 400Gbps/800Gbps(通过4x链路宽度连接时的数据传输速率),并有望在未来进一步提升速度阈值。它还用于某些计算综合体中的内部连接。截至 2014 年,Infiniband 是最受欢迎的超级计算网络。创建 Infiniband 时,内置了可扩展性,可在单个子网内轻松支持数万个节点,因此成为高性能计算(HPC)环境的理想选择。

 🛸 探索高性能计算数据中心中的 InfiniBand 网络

InfiniBand是一种采用高性能输入/输出(I/O)架构允许同时连接多种线缆交换的技术。根据其传输速率和物理接口的不同,InfiniBand线缆通常分为四个主要类型,QSFP、QSFP-DD、SFP和AOC,全面支持高性能计算数据中心的业务需求👍👍👍

在大型机计算中,InfiniBand网络模型专用通道用于在大型机和外设之间连接和传输数据。InfiniBand网络的最大数据包大小为 4K,支持点对点和双向串行链路,这些链路可以聚合为 4X 和 12X 单元,以实现高达每秒 300 GB 的组合有用数据吞吐率。

✍✍为了进一步推动高性能计算产业的发展,不少品牌商已经开始推出InfiniBand产品。前沿光学(ADOP)提供的100G QSFP28 IB 光模块和线缆,可以作为高性能计算数据中心网络搭建的解决方案之一。​​​​​

 

🛸 InfiniBand网络如何满足高性能计算数据中心的需求

如今,互联网是一个庞大的基础设施,需要各种数据密集型应用程序。大型企业正在建设高性能计算数据中心,以满足数据密集型应用程序的需求。高性能计算通过实现计算节点、存储和分析系统之间的高带宽连接,构建了一个卓越的系统环境。而延迟是高性能计算架构的另一个重要性能指标。因此,高性能计算数据中心选择采用InfiniBand网络,以满足其对高带宽和低延迟的需求。

与RoCE和TCP/IP相比,InfiniBand网络在高吞吐量处理环境中的应用,特别是在使用服务器虚拟化和云计算技术的环境中,表现出了突出的优势🥇🥇🥇

🛸 InfiniBand网络在高性能计算数据中心中的优势

🚀🚀无论是数据通信技术的演进、互联网技术的创新,还是视觉呈现的升级,都受益于更强大的计算、更大的容量和更安全的存储以及更高效的网络。InfiniBand网络凭借其独特的优势,可以提供更高带宽的网络服务的同时还可以降低延迟以及网络传输负载对计算资源的消耗,完美融合高性能计算数据中心。

🌻 网络效率:InfiniBand网络(IB网络)将协议处理和数据移动从CPU卸载到互连,最大限度地提高CPU的效率,使其能快速处理超高分辨率模拟、超大数据集和高度并行的算法。特别是在高性能计算数据中心,将实现显著的性能提升,例如Web 2.0、云计算、大数据、金融服务、虚拟化数据中心和存储应用。这将缩短完成任务所需的时间并降低流程的总体成本。

🌻 nfiniBand速度:在以太网100G统治市场的时期,IB网络速度也在不断发展,飞速(FS)100G QSFP28 Infiniband 光模块支持先进的传输协议,如远程直接内存访问(RDMA),能有效以提高高容量工作负载处理效率。凭借InfiniBand技术的超低延迟,前沿光学(ADOP)提供的100G QSFP28 IB 光模块和线缆大大提升了高性能计算网络和数据中心的互连。

🌻 可扩展性:借助 InfiniBand,可以在单个子网中创建包含 48,000 个节点的网络第 2 层。而且,IB网络不依赖于ARP等广播机制,因此不会造成广播风暴,避免浪费额外的带宽。

基于上述InfiniBand光模块的优点,前沿光学(ADOP)的 100G QSFP28 Infiniband 光模块成为数据中心、高性能计算网络、企业核心和分布层应用等应用场景的不二选择。

Conclusion:简而言之,InfiniBand网络通过简化高性能网络架构和减少多层架构所带来的时延,为关键计算节点的带宽升级提供有力支持,帮助高性能计算数据中心用户最大限度地提高业务绩效。未来,InfiniBand网络将会成为一种发展趋势,被广泛应用到各个领域,为用户提供强大的业务支持。

🎓🎓最后,感谢您耐心看完本篇文章,前沿光学(ADOP)祝您生活愉快,工作顺利🌹🌹🌹

  • 29
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值