[Spark进阶]--Spark RDMA技术

Apache Spark RDMA插件通过利用RDMA技术优化Shuffle过程,降低CPU使用率,减少内存消耗,提高MapReduce操作的执行速度。该插件提供了性能改进和精细的配置选项,适用于Shuffle密集型工作,且易于部署。
摘要由CSDN通过智能技术生成

Apache Spark RDMA插件

Apache Spark™是一种用于大规模数据处理的开源,快速和通用引擎。Spark提供了一个接口,用于使用隐式数据并行和容错来编程整个集群。

概览

Apache Spark™为程序员提供了一个以数据结构为中心的API,称为弹性分布式数据集(RDD),这是一种分布在机器集群上的只读多集数据项,以容错方式进行维护。它是为了响应MapReduce集群计算范例的局限性而开发的,它强制分布式程序上的特定线性数据流结构:MapReduce程序从磁盘读取输入数据,在数据中映射函数,减少映射结果,以及存储减少磁盘上的结果。Spark的RDD作为分布式程序的工作集,提供(故意)受限形式的分布式共享内存。

 

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值