【Spark】Spark 与 Hadoop MR 之间的区别

本文对比分析了Spark和MapReduce的差异,包括Spark的中间数据存于内存提高迭代效率,高效的容错机制,丰富的功能API,以及复杂的生态系统。而MapReduce则以简单、稳定性和适合离线大规模数据处理见长。
摘要由CSDN通过智能技术生成
首先Spark是借鉴了mapreduce并在其基础上发展起来的,继承了其分布式计算的优点并改进了
mapreduce明显的缺陷,但是二者也有不少的差异具体如下:
1、spark把运算的中间数据存放在内存,迭代计算效率更高;mapreduce的中间结果需要落地,需要
保存到磁盘,这样必然会有磁盘io操做,影响性能。
2、spark容错性高,它通过弹性分布式数据集RDD来实现高效容错,RDD是一组分布式的存储在节点
内存中的只读性质的数据集,这些集合是弹性的,某一部分丢失或者出错,可以通过整个数据集的计
算流程的血缘关系来实现重建;mapreduce的话容错可能只能重新计算了,成本较高。
3、spark更加通用,spark提供了transformation和action这两大类的多个功能api,另外还有流式处理
sparkstreaming模块、图计算GraphX等等;mapreduce只提供了map和reduce两种操作,流计算以及
其他模块的支持比较缺乏。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值