纳秒级网络库【二】技术选型

在十年之前,已经有网络产品实现7纳秒延迟,所以无需质疑是否能够实现,关键问题是:代价是什么。国内不少量化公司在招聘低延迟总线的开发人员,虽然我不知道他们具体的技术选型,从技术底层来看,并没有太多选择。

第一个选项是InfiniBand。最早发展这个高速网络技术,应该是InfiniBand,目前只剩Mellanox。在2020年NVIDIA完成了对Mellanox的收购,即使对InfiniBand做什么不了解,从这个收购中,也能猜到InfiniBand的特点是什么。

InfiniBand和以太网不一样,需要特制的网卡和交换机。对于不差钱的交易所,为了降低延迟,采用InfiniBand一点都不奇怪,甚至有些关键组件还会用到FPGA。常听说超算系统采购GPU,其实InfiniBand在超算系统也会用到。NVIDIA收购Mellanox,就是为了将InfiniBand应用到AI算力网络。


第二个选项是RDMA。RDMA早期基于InfiniBand,三个特征,十分具备吸引力:

1、ZeroCopy;2、kernel bypass;3、CPU-offload

在专业系统中,RDMA应用不少,但在大众眼里,并不算常见。RDMA需要网卡支持RoCE或者iWARP,RDMA两端的网卡同时都要支持,制约了RDMA的推广。另一个,RDMA需要网络层无损传输,这个需求限制了RDMA网络的规模。

RDMA的底层网络依赖,从InfiniBand,到RoCEv1,到RoCEv2,最后到iWARP,逐步脱离了InfiniBand,迁移到以太网络,但核心指标低延迟也打了折扣。

第三个选项是DPDK。英特尔和思科都是InfiniBand的早期成员,DPDK是英特尔搞的新网络技术方案,直接接管整个linux网络协议栈。这个解决方案性能无需说,但对普通用户极不友好。腾讯阿里或者华为这样的大厂家才可能有这个能力。即使没有证据,我还是猜测DPDK和PF_RING有前后继承关系。我对DPDK的前景并不看好,直接绕过整个操作系统网络协议栈,导致之前所有的工作都白费了。DPDK最终大概率会和InfiniBand一样,停留在专门系统中,发挥重要作用。

第四个选项是XDP。这个方案提供接近于DPDK的性能,又能充分利用已经有的资源,不需要重新实现所有的网络工具和协议。这样的解决方案更容易得到普遍支持。XDP虽然有三种模式,但仍然建议采用卸载到网卡模式,才能生产上的实用性。

第五个选项是Solarfare。在没有XDP和DPDK之前,他是一个非常有创意的解决方案。由于是商业解决方案,所以拿来参考,不详细展开。

  • 7
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值