Spark比MapReduce快的根本原因你知道吗?

       三大原因分别如下:

        第一个:MapReduce的计算模型只有简单的Map和Reduce,且Map阶段所产生的数据必须全部写到磁盘中而且这些数据会进行Sort和Combine操作然后才进入Reduce阶段,IO效率很低;而Spark在每个阶段中都会尽可能的使用内存大大提高了计算效率。

        第二个:对于一个复杂计算来说,如果有很多阶段的话,MapReduce会启动多个应用而Spark则可以利用独有的DAG依赖关系只需要启动一个应用就可以完成所有计算,避免重复启动应用带来的性能损耗。

        第三个:从编程角度看Spark根据数据计算的功能不同提供了更多灵活便捷的算子使编程变得更加优雅和高效。

  • 6
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值