详解RDMA架构和技术原理

RDMA(远程直接内存访问)技术解决了高性能计算和大数据应用中的高CPU消耗和延迟问题。它允许直接在两端点应用间进行Buffer传递,无需操作系统和协议栈介入,实现超低延迟和高吞吐量。RDMA支持InfiniBand、iWARP和RoCE协议,其中RoCEv2解决了扩展性和负载分担问题。RDMA通过Verbs API和Queue Pairs实现高效通信,提供双边和单边操作,广泛应用于存储和网络通信。
摘要由CSDN通过智能技术生成

640?wx_fmt=jpeg

640?wx_fmt=gif

      面对高性能计算、大数据分析和浪涌型IO高并发、低时延应用,现有TCP/IP软硬件架构和应用高CPU消耗的技术特征根本不能满足应用的需求。这要有体现在处理延时过大,数十微秒;多次内存拷贝、中断处理,上下文切换、复杂的TCP/IP协议处理、网络延时过大、存储转发模式和丢包导致额外延时。接下来我们继续讨论RDMA技术、原理和优势,看完文章你就会发现为什么RDMA可以更好的解决这一系列问题。


640?wx_fmt=png

 

     RDMA是一种远端内存直接访问技术,详细介绍请参看RDMA(远程直接内存访问)技术浅析文章。RDMA最早专属于Infiniband架构,随着在网络融合大趋势下出现的RoCE和iWARP,这使高速、超低延时、极低CPU使用率的RDMA得以部署在目前使用最广泛的以太网上。

 

      RDMAC(RDMA Consortium)和IBTA ( InfiniBand Trade Association )主导了RDMA发展,RDMAC是IETF的一个补充并主要定义的是iWRAP和iSER,IBTA是infiniband的全部标准制定者,并补充了RoCE v1 v2的标准化。IBTA解释了RDMA传输过程中应具备的特性行为,而传输相关的Verbs接口和数据结构原型是由另一个组织OFA(Open Fabric Alliance)来完成。

 

    相比传统DMA的内部总线IO,RDMA通过网络在两个端点的应用软件之间实现Buffer的直接传递;相比比传统的网络传输,RDMA又无需操作系统和协议栈的介入。RDMA可以轻易实现端点间的超低延时、超高吞吐量传输,而且基本不需要CPU、OS等资源介入,也不必再为网络数据的处理和搬移耗费过多其他资源。   
 
640?wx_fmt=png

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值