Spark 简单介绍 基本概念 和MapReduce的区别

1.概述

        Spark是一种快速而通用的集群计算的平台,Spark 的一个主要特点就是能够在内存中进行计算,因而更快。

2.特点

        与Hadoop的MapReduce相比,Spark基于内存的运算要快100倍以上,基于硬盘的运算也要快10倍以上。Spark实现了高效的 DAG执行引擎,可以通过基于内存来高效处理数据流。
Spark提供了统一的解决方案。Spark可以用于批处理、交互式查询(Spark SQL)、实时流处理(Spark Streaming)、机器学习(Spark MLlib)和图计算(GraphX)。
  • Spark Core实现了任务调度、内存管理、错误恢复与存储系统交互等模块,并且还包含了对弹性分布式数据集(Resilient Distributed Dataset,简称RDD)的API的定义。它主要担任了系统管理员的角色。
  • Spark SQL 主要用来操作结构化数据的程序包,通过Spark SQL可以使用SQL或者hive版本的HQL来查询数据库。
  • Spark Streaming 主要是对实时数据进行流式计算。Spark Streaming 提供了用来操作数据流的 API,并且与 Spark Core 中的 RDD API 高度对应
  • MLib提供了很多机器学习算法。包括分类、回归、聚类、协同过滤等,还提供了模型评估、数据导入等额外的支持功能。
  • GraphX用来操作图,可以并行的进行图计算,支持了图的各种操作。
  Spark SQL组件是经常用到的,使用hql语句从Hive中读取结构化的数据,存为RDD数据集,进行一些操作后分布式存储到hdfs中。

3.Spark基本概念

  • Application:Spark用户程序,用户提交一次应用为一个App,一个App产生一个SparkContext。
  • Job:一个App可被划分为多个Job,划分标记为action动作;action动作有collect,count等。
  • Stage:每个Job会被划分多层Stage,划分标记为shuffle过程;Stage按照父子(血统)关系依次执行。
  • Task:具体的执行任务单位,被发到executor上执行具体任务。
  • Cluster Manager:集群资源管理服务,通常包含主节点(主备)和多个运行节点;支持运行模式有Standalone、Mesos(用得少)、Yarn。
  • Driver:运行App的大脑,负责job的初始化,将job转换成task并提交执行。
  • DAGScheduler:是一个面向Stage层面的调度器,按照Stage提交Task集合给TaskScheduler。
  • TaskScheduler:提交Task给Executor运行,并管理执行结果。
  • BlockManager:管理App运行周期的中间数据,比如存在内存、本地。
  • Executor:是App运行在worker node上的一个进程,该进程负责运行Task,生命周期和App相同

4.Spark与MapReduce的区别

        Spark是MapReduce的替代方案,而且兼容HDFS、Hive,可融入Hadoop的生态系统,以弥补MapReduce的不足。可以直接对HDFS进行数据的读写,同样支持Spark on Yarn。Spark可以与MapReduce运行于同集群中,共享存储资源与计算。
  • spark把中间计算结果存放在内存中,减少迭代计算过程中的数据落地,运算效率高。MapReduce中的计算中间结果是保存在磁盘上的,运算效率差。
  • spark容错性高。spark支持DAG图的分布式并行计算。DAG:有向无环图,描述了任务间的先后依赖关系。
  • spark通用性高。MapReduce只提供了map和reduce两种操作,spark提供的操作类型有很多,分为转换和行动操作两大类。转换操作包括:map,filter,flatmap,sample,groupbykey,reducebykey,union,join,cogroup,mapvalues,sort,partitionby等多种操作,行动操作包括:collect,reduce,lookup和save等操作。

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,针对您的问题,我可以给您回答: SparkMapReduce是两个常用的分布式计算框架,它们都可以用于处理大规模数据集的计算任务。下面是它们各自的优缺点: 1. Spark的优点: - Spark的内存计算能力比MapReduce更强大,因此在迭代计算、机器学习等需要频繁读取数据的计算任务中表现更好。 - Spark支持多种数据源,包括HDFS、Cassandra、HBase等,可以方便地与不同的数据源进行交互。 - Spark提供了更加丰富的API,可以支持SQL查询、流式处理、图计算等多种计算模型。 2. Spark的缺点: - Spark的计算速度相对于MapReduce会慢一些,这是因为它需要更多的内存来处理数据。 - Spark的部署和管理相对复杂,需要一定的技术水平。 3. MapReduce的优点: - MapReduce的计算模型简单,易于理解和使用。 - MapReduce能够处理超大规模的数据集,并具有高可靠性和容错性。 4. MapReduce的缺点: - MapReduce需要频繁地读写HDFS,因此在处理迭代计算等需要频繁读写数据的任务时,效率较低。 - MapReduce只支持基本的数据操作,如Map和Reduce,无法支持SQL查询、流式处理等多种计算模型。 总的来说,SparkMapReduce各有优缺点,具体使用哪个取决于实际的业务需求和数据规模。 ### 回答2: SparkMapReduce是两种处理大数据的分布式计算框架,它们各有优缺点。 首先,我们来谈谈Spark的优点。Spark是基于内存计算的分布式计算框架,相较于MapReduce有以下优点: 1. 更高的速度:由于Spark将数据存储在内存中进行计算,可以极大地提高处理速度。尤其是在数据集重用或迭代计算中,性能优势明显。 2. 多种数据处理模型:Spark不仅支持批处理,还支持流式处理、图计算和机器学习等多种数据处理模型,能满足更多场景的需求。 3. 更好的容错性:Spark通过弹性分布式数据集(Resilient Distributed Datasets,简称RDD)提供了容错机制。当某个节点发生故障时,RDD可以自动从其他节点重新计算,并恢复到之前的状态。 然而,Spark也存在一些缺点: 1. 对资源的需求较高:由于Spark将数据存储在内存中,因此需要更多的内存资源。这可能导致集群规模受限,且部署和维护相对复杂。 2. 学习曲线较陡:相较于MapReduceSpark相对较新,因此学习曲线较陡峭,需要用户具备一定的编程和调试能力。 接下来,我们来讨论一下MapReduce的优点。MapReduce是一种经典的批处理模型,有以下优点: 1. 成熟和稳定:MapReduce已经存在较长时间,经过了大规模的部署和使用。因此,MapReduce在稳定性和可靠性方面有一定的优势。 2. 可扩展性强:MapReduce采用了分布式计算的方式,可以方便地扩展到大型集群上,处理大规模数据。 3. 易于使用:使用MapReduce进行编程相对简单明了,用户可以使用Java、Python等编程语言进行开发。 然而,MapReduce也有一些缺点: 1. 磁盘IO开销较高:MapReduce的计算模型需要将数据写入磁盘,并且每个任务之间都需要进行磁盘IO操作。这会导致较高的磁盘IO开销,影响计算效率。 2. 速度较慢:由于MapReduce使用磁盘作为中间结果的存储介质,相对于Spark等内存计算框架,速度较慢。 综上所述,SparkMapReduce各有独特的优点和缺点,根据具体的场景需求和环境条件来选择合适的分布式计算框架。 ### 回答3: SparkMapReduce都是用于分布式计算的框架,用于处理大规模数据的并行计算。 Spark的优点: 1. 较高的性能和速度:Spark通过内存计算和弹性数据集(RDD)的概念,能够在内存中对数据进行高效处理,相比于MapReduce具有更快的速度。 2. 更为灵活和易用:Spark提供了更多的API和丰富的功能,可以支持各种计算模型(批处理、流处理、机器学习等),容易编写和调试,提升开发效率。 3. 更低的延迟:由于Spark使用数据缓存机制,避免了频繁的磁盘读写,并能够在内存中进行数据处理,因此具有更低的延迟。 4. 支持复杂的数据处理和机器学习任务:Spark提供了丰富的库,如Spark SQL、Spark Streaming、MLlib等,可以处理更多复杂的数据分析和机器学习任务。 Spark的缺点: 1. Spark的资源消耗较大:由于在内存中进行计算并缓存数据,需要较多的内存资源,对于资源受限的环境可能会存在问题。 2. 处理小规模数据的性能相对较低:当数据规模较小时,Spark的内存计算和RDD的开销可能会导致性能相对较低。 3. 需要更高的学习成本:相较于MapReduceSpark的学习成本可能较高,需要对其丰富的API和概念进行理解和掌握。 MapReduce的优点: 1. 良好的可扩展性:MapReduce可以在集群中分布执行任务,能够很好地实现横向扩展,适用于大规模数据处理。 2. 更低的资源消耗:MapReduce在处理大规模数据时,可以有效地对数据进行切片、分布式处理,降低了资源的消耗。 3. 相对稳定和成熟:MapReduceHadoop生态系统中的核心组件之一,经过多年的发展和实践,具有较高的稳定性和可靠性。 MapReduce的缺点: 1. 较高的IO开销:MapReduce经常需要将中间结果写入磁盘,并进行磁盘读取,这导致了较高的IO开销,相对较低的性能。 2. 较长的开发和调试周期:MapReduce编程需要进行繁琐的封装和操作,开发和调试周期相对较长,不便于快速迭代和开发。 综上所述,Spark相较于MapReduce具有更高的性能、更灵活的功能和更低的延迟,但对资源的消耗较大。而MapReduce具有较好的可扩展性和相对稳定成熟的特点,但IO开销较高,且开发和调试相对较耗时。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值