唯有自身强大才能呼风唤雨—Intel要携CXL一统互联江湖了吗?

不知道大家是否还记得多年前一个Gen-Z联盟,该联盟成员包括AMD, ARM, Broadcom, Cavium, Cray, Dell EMC, HPE,华为, IBM, IDT, 联想, Mellanox Technologies,美光, Microsemi, Red Hat, 三星, 希捷,海力士,西数和Xilinx等等。

来势汹汹,悻悻而归。Gen-Z目标很远大,势必要搞一套连接计算机和内存的互联架构,带大家玩内存池化。从某种程度上说,Gen-Z是旨在未来的数据中心,内存,存储和处理器都将集中到不同的盒子里。在一个盒子里,服务器要和存储,内存和处理器一起提供,具有一定的局限性。一旦它们分离到不同的盒子里,Gen-z将充当连接器。更大的存储,内存和处理池可以专注每一个独立的盒子。

然后,有没有发现,Gen-Z拉了一堆人,唯独没有计算领域的老大哥Intel英特尔。

Intel也没闲着,他都做了什么事情?

第一件事:大力推广持久化内存PMEM

大家都知道存储界有一个金字塔分布,如下图,DRAM和NAND之间的延迟gap可以达到1000倍级别。这样的情况,会造成一些系统的整体运行性能有所折损。

在我们的应用系统中,NAND/SSD/HDD等存储介质分布在最底层,也是数据最终的栖息场所。在CPU请求数据后,如果数据在DRAM中,CPU就会很快得到回应,但是如果在NAND/SSD/HDD等存储介质中,CPU就要耐心等待一段时间了。我们对这个等待时间通常没有特别的感受,但是对要求高性能的系统来说,是灾难性的。

为了解决这个DRAM和NAND之间gap,Intel推出了基于3D Xpiont技术的SCM(存储级内存)解决这个性能gap。

当大家都在努力打造这个PMEM生态的时候,Intel突然宣布后续停止3D Xpoint的研发,3D Xpiont技术发展到第三代戛然而止,转而全面拥抱CXL。看到这里,真的可以吐槽一句:渣男,哈哈!

不过人家是有正当的理由的,看看是怎么说的:

英特尔对此事做了说明:“我们将继续推进产品组合合理化的操作,以支持IDM 2.0战略,其中包括评估剥离那些盈利能力不足或不是我们战略目标核心的业务。经过慎重地考虑,英特尔计划停止傲腾业务里未来产品的开发。在过渡期内,我们将保持对客户的支持。”

第二件事情:主导且全面拥抱CXL

在2019年,Intel主导联合多家阿里巴巴、Facebook(也就是改名后Meta)、谷歌、Dell、华为、思科、微软、HPE最初的八巨头,发布了新的互联协议CXL,全称Comupte Express Link。由于在服务器领域享有绝对领导地位,Intel一经号令,遍得到万众呼应。特别是另外两家CPU巨头AMD/ARM和GPU一哥NVDIA的加入,让CXL阵营更加全面强大,为下一步的生态普及打下了坚实的基础。

最狠的是,Intel在2020年彻底把Gen-Z征服了,让其俯首称臣,从竞争转向合作,在互联协议这个江湖实现了大一统。唯有自身强大才能呼风唤雨!

CXL是什么呢?Intel为何这么有底气?

CXL诞生的基础是为了解决CPU内存和附加设备内存的互联,实现资源共享,得到最大的性能提升。

随着数据大规模超算、AI、5G、云技术、边缘计算、自动驾驶等蓬勃发展,未来的数据存在指数级的增长且要求实时计算。

根据有关机构的测算,从2020到2025年,用于AI计算的服务器的数量将成长2倍。而AI计算的服务器对内存和存储的需求更加的强劲,对计算的性能也有更高的要求。

然后随着CPU core的不断增加,单core享用的内存带宽却在不断的下降,这对计算绝对是巨大的拖后腿,这就必须要有新的计算互联技术来解决这个头疼的问题,CXL也就顺势而生。

CXL 2.0是基于PCIe 5.0基础上定义,允许替代协议使用物理PCIe层的PCIe 5.0特性。当CXL加速器或者扩展卡、PCIE设备同时插入主机端口时,会优先pcie协议1.0速率协商,当双方确认支持CXL后,再激活CXL互联协议。

CXL协议包含了三种协议,分别是CXL.io、CXL.cache、CXL.memory.

  • CXL.io:是基础协议,基本跟pcie 5.0协议等同。用于初始化、链接、枚举、注册,CXL设备必须要支持CXL.io.

  • CXL.cache:定义CPU和设备之间互联,允许CXL设备低延迟访问主机缓存数据。

  • CXL.memory:用于CPU直接访问CXL设备的内存的协议

这三种协议,CXL.io是必须的,CXL.cache和CXL.memory可以自由组合使用,不强制。根据三种协议的组合形式,CXL协议支持的设备类型主要分为三类:

  • Type1: 智能网卡NIC等缺少本地内存的加速设备,可以在同CXL.io和CXL.cache直接访问加载在主机内存的数据,减少访问的延迟。

  • Typ2: GPU、FPGA等计算设备都配置了内存,可以使用CXL.io、CXL.cache、CXL.memory三个协议组合,CPU和计算设备之间可以相互快速访问,同样可以降低访问的延迟。

  • Type3: 内存扩展设备,利用CXL.io和CXL.memory进行内存扩展,增加内存带宽,解绑CPU单core内存带宽不足的问题。

这三种CXL设备类型,目前来看,Type3内存扩展方案的发展最迅速,也是带给数据中心和内存厂商最大的机遇。

三星和海力士目前都发布了CXL内存扩展方案,Marvell也为了CXL收购了CXL技术领先开发商Tanzanite,国内厂商澜起科技在今年也发布全球首款CXL内存扩展控制器芯片(MXC), 据小编掌握的消息来看,三星的CXL 2.0产品正是采用的澜起CXL内存扩展控制器,先点个赞!

三星的CXL产品方案:

采用E3.S接口,也是数据中心为了的趋势,基于CXL2.0协议,CXL link带宽x8,容量512GB,基于DDR5设计,最大带宽达到32GB/s.

三星测试场景中,用DDR+CXL纵向扩展 vs DDR*3横向扩展进行性能比对,结果发现,在4K chunk size场景下,性能提升接近3倍,也可以看出CXL带来的巨大收益。

海力士CXL产品方案:

也是基于DDR5,但是容量没有三星的大,只有96GB. 同样基于CXL2.0 over PCIe Gen5 x8, 随机带宽最大30GB/s.

未来CXL将是巨大的机遇,CXL扩展expander、内存池化、加速计算、CXL switch都将发挥各自的能量,打造强大的CXL生态,造福互联世界,让我们共同期待!

相关阅读推荐:

Linux NVMe Driver学习笔记之8:IO SQ/CQ的创建过程

Linux NVMe Driver学习笔记之7:Identify初始化及命令提交过程

Linux NVMe Driver学习笔记之6:Admin Queue与Blk-mq初始化

Linux NVMe Driver学习笔记之5:Admin SQ/CQ的创建

Linux NVMe Driver学习笔记之4:nvme_reset_work解析

Linux NVMe Driver学习笔记之3:nvme_probe函数解析

Linux NVMe Driver学习笔记之2:初始化

Linux NVMe Driver学习笔记之1:概述与nvme_core_init函数解析

存储随笔《NVMe专题》大合集及PDF版正式发布!

你知道企业级SSD与消费级SSD的区别吗?

【技术基础帖】SSD可靠性分析前传之NAND闪存可靠性概览

【技术干货贴】如何实现SSD系统级的可靠性?

加权循环仲裁WRR特性对NVME SSD性能有什么影响?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

古猫先生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值