Spark与hadoop的异同

解决问题的层面不一样

首先,Hadoop和Apache Spark两者都是大数据框架,但是各自存在的目的不尽相同。Hadoop实质上更多是一个分布式数据基础设施: 它将巨大的数据集分派到一个由普通计算机组成的集群中的多个节点进行存储,意味着您不需要购买和维护昂贵的服务器硬件。

同时,Hadoop还会索引和跟踪这些数据,让大数据处理和分析效率达到前所未有的高度。Spark,则是那么一个专门用来对那些分布式存储的大数据进行处理的工具,它并不会进行分布式数据的存储。

两者可合可分

Hadoop除了提供为大家所共识的HDFS分布式数据存储功能之外,还提供了叫做MapReduce的数据处理功能。所以这里我们完全可以抛开Spark,使用Hadoop自身的MapReduce来完成数据的处理。

相反,Spark也不是非要依附在Hadoop身上才能生存。但如上所述,毕竟它没有提供文件管理系统,所以,它必须和其他的分布式文件系统进行集 成才能运作。这里我们可以选择Hadoop的HDFS,也可以选择其他的基于云的数据系统平台。但Spark默认来说还是被用在Hadoop上面的,毕 竟,大家都认为它们的结合是最好的。

Spark数据处理速度秒杀MapReduce

Spark因为其处理数据的方式不一样,会比MapReduce快上很多。MapReduce是分步对数据进行处理的: ”从集群中读取数据,进行一次处理,将结果写到集群,从集群中读取更新后的数据,进行下一次的处理,将结果写到集群,等等…“ Booz Allen Hamilton的数据科学家Kirk Borne如此解析。

反观Spark,它会在内存中以接近“实时”的时间完成所有的数据分析:“从集群中读取数据,完成所有必须的分析处理,将结果写回集群,完成,” Born说道。Spark的批处理速度比MapReduce快近10倍,内存中的数据分析速度则快近100倍。

如果需要处理的数据和结果需求大部分情况下是静态的,且你也有耐心等待批处理的完成的话,MapReduce的处理方式也是完全可以接受的。

但如果你需要对流数据进行分析,比如那些来自于工厂的传感器收集回来的数据,又或者说你的应用是需要多重数据处理的,那么你也许更应该使用Spark进行处理。

大部分机器学习算法都是需要多重数据处理的。此外,通常会用到Spark的应用场景有以下方面:实时的市场活动,在线产品推荐,网络安全分析,机器日记监控等。

灾难恢复

两者的灾难恢复方式迥异,但是都很不错。因为Hadoop将每次处理后的数据都写入到磁盘上,所以其天生就能很有弹性的对系统错误进行处理。

Spark的数据对象存储在分布于数据集群中的叫做弹性分布式数据集(RDD: Resilient Distributed Dataset)中。“这些数据对象既可以放在内存,也可以放在磁盘,所以RDD同样也可以提供完成的灾难恢复功能,”Borne指出。

转载于:https://my.oschina.net/u/2874009/blog/739822

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HadoopSpark都是为了实现大规模数据处理的分布式计算框架,因此它们有许多相同的特点和目标。然而,它们在架构、设计和使用方式上也有一些显著的不同。 相同点: 1. 分布式计算:HadoopSpark都是分布式计算框架,可以将数据分散在多个计算节点上进行并行计算。 2. 大数据处理:两者都旨在处理海量数据,通过分布式并行计算提供高性能和可伸缩性。 3. 容错性:HadoopSpark都具备高度容错性,可以处理故障和节点失效,确保计算不中断。 4. 扩展性和灵活性:两者都可以通过添加新的计算节点来扩展计算能力,适应不断增长的数据规模和需求。 5. 多种编程语言支持:HadoopSpark都可以使用Java、Python等多种编程语言进行开发和编写计算逻辑。 不同点: 1. 计算模型:Hadoop使用批处理(Batch Processing)的计算模型,它适合于大规模、低延迟的任务,例如数据离线处理。而Spark则引入了流式处理(Stream Processing),可以实时处理数据流,适用于需要实时性的应用场景。 2. 执行速度:由于Spark使用内存计算和多级缓存,相比Hadoop的磁盘读写,Spark具有更快的执行速度。 3. 数据处理模式:Hadoop使用基于磁盘的Hadoop分布式文件系统(HDFS)存储数据,而Spark除了支持HDFS外,还可以读取其他数据源,如HBase、Cassandra等,提供更灵活的数据处理模式。 4. 内存管理:Spark更为高效地利用内存,可以将数据缓存到内存中进行快速访问,并支持数据间的迭代处理,对迭代算法的运行速度提升较大。 5. 应用领域:由于Spark的实时计算能力,它更适合数据挖掘、机器学习等需要进行实时分析和交互的应用场景,而Hadoop更多用于大规模数据的离线处理和批处理任务。 总之,HadoopSpark都是强大的分布式计算框架,每个都有其独特的优势和适用场景。在实际应用中,可以根据数据处理需求和性能要求来选择合适的框架。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值