Hadoop和Spark是两个不同的分布式软件框架



Hadoop和Spark是两个不同的分布式软件框架。hadoop是一个MapReduce框架,在这个框架上可以运行支持map(),combine(),reduce()函数的作业。mapreduce的范式很适合单趟计算【先map,再reduce】,不过对于多趟算法的效率还是很低。


spark不是一个mapreduce的框架,不过很容易用来支持mapreduce的框架的功能,他提供了一个适当的API可以处理map和reduce的功能。spark并不限于先完成映射阶段在完成归约阶段。spark作业可以是由映射和/或归约/洗牌阶段构成的一个任意DAG(有向无环图)。spark程序可以使用hadoop运行,也可以不适用hadoop,另外spark可以使用hadoop分布式文件系统HDFS,或者其他持久存储来实现输入和输出。基在本上,对于一个给定的spark程序或者作业,spark引擎会创建将在集群上完成的任务阶段所构成的有向无环图。hadoop和mapreduce则不同,他会创建由两个预定义阶段构成的有向无环图。注意,spark创建的DAG可以包含任意多个阶段。相比hadoop和mapreduce,spark的API提供了更高层的抽象。这使得spark的代码更加简洁。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值