Spark相比MapReduce的优势

MapReduce是Apache Hadoop中用于大规模数据集计算的并行计算框架,目前被广泛应用于企业的离线数据处理上。但是因为种种原因,MapReduce的性能并不理想。而Spark作为数据处理框架界的后起之秀,很多方面都超过了MapReduce。下面来列出MapReduce的不足以及Spark对其的改进。

MapReduce:

  • 仅支持Map和Reduce两种操作
  • Map中间结果需要写磁盘
  • 任务调度和启动开销大
  • 无法充分利用内存
  • Map和Reduce都需要排序
  • 不适合迭代计算

Spark:

  • 丰富的API(Java、Scala、Python、R四种语言,sort、join等高效算子)
  • DAG执行引擎,中间结果不落盘
  • 线程池模型减少task启动开销
  • 充分利用内存,减少磁盘IO
  • 避免不必要的排序操作
  • 适合迭代计算,比如机器学习算法

当然,Spark相比MapReduce还是有一个明显的缺点,就是内存的消耗是比较大的。在超大规模数据集离线计算并且时效性要求不高的情况下可以考虑优先使用MapReduce。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值