Spark简介

Spark是一种基于内存的快速大数据分析引擎,相较于Hadoop的MapReduce,Spark在数据计算速度和迭代处理上有显著优势。Spark包含SparkCore、SparkSQL、SparkStreaming和SparkMLlib等核心模块,提供结构化数据处理、实时流计算和机器学习等功能。尽管Spark通常更快,但由于内存限制,某些场景下Hadoop仍是更好的选择。
摘要由CSDN通过智能技术生成
//小提示:学习技术一定要看官网,官网是第一手资料。
Spark官网地址:https://spark.apache.org/

在这里插入图片描述

一、Spark是什么?

Spark 是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。

二、Spark and Hadoop

从时间节点上看

Hadoop
  • 2006 年 1 月,Doug Cutting 加入 Yahoo,领导 Hadoop 的开发;
  • 2008 年 1 月,Hadoop 成为 Apache 顶级项目;
  • 2011 年 1.0 正式发布;
  • 2012 年 3 月稳定版发布;
  • 2013 年 10 月发布 2.X (Yarn)版本;
Spark
  • 2009 年,Spark 诞生于伯克利大学的 AMPLab 实验室;
  • 2010 年,伯克利大学正式开源了 Spark 项目;
  • 2013 年 6 月,Spark 成为了 Apache 基金会下的项目;
  • 2014 年 2 月,Spark 以飞快的速度成为了 Apache 的顶级项目;
  • 2015 年至今,Spark 变得火爆,大量的国内公司开始重点部署或者使用Spark;

从功能上看

Hadoop
  • Hadoop 是由java 语言编写的,在分布式服务器集群上存储海量数据并运行分布式分析应用的开源框架;
  • 作为Hadoop分布式文件系统,HDFS处于Hadoop生态圈的最下层,存储着所有的数据,支持着Hadoop的所有服务。它的理论基础源于Google的TheGoogleFileSystem这篇论文,它是GFS的开源实现。
  • MapReduce 是一种编程模型,Hadoop 根据 Google 的 MapReduce 论文将其实现,作为 Hadoop 的分布式计算模型,是 Hadoop 的核心。基于这个框架,分布式并行程序的编写变得异常简单。综合了 HDFS 的分布式存储和MapReduce 的分布式计算,Hadoop 在处理海量数据时,性能横向扩展变得非常容易。
  • HBase是对Google的Bigtable的开源实现,但又和Bigtable存在许多不同之处。HBase是一个基于HDFS的分布式数据库,擅长实时地随机读/写超大规模数据集。它也是Hadoop非常重要的组件
Spark
  • Spark是一种由Scala语言开发的快速、通用、可扩展的大数据分析引擎;
  • Spark Core中提供了Spark最基础与最核心的功能;
  • Spark SQL是Spark用来操作结构化数据的组件。通过Spark SQL,用户可以使用SQL或者Apache Hive版本的SQL方言(HQL)来查询数据。
  • Spark Streaming是Spark平台上针对实时数据进行流式计算的组件,提供了丰富的处理数据流的API。

由 Spark and Hadoop 获知,Spark出现的时间相对较晚,并且主要功能主要是用于数据计算,所以我们可以片面的认为:“Spark一直被认为是Hadoop框架的升级版”。

三、Spark on Hadoop

Hadoop的MR框架和Spark框架都是数据处理框架,那么我们在使用时如何选择呢?

  • Hadoop MapReduce由于其设计初衷并不是为了满足循环迭代式数据流处理,因此在多并行运行的数据可复用场景(如:机器学习、图挖掘算法、交互式数据挖掘算法)中存在诸多计算效率等问题。所以Spark应运而生,Spark就是在传统的MapReduce计算框架的基础上,利用其计算过程的优化,从而大大加快了数据分析、挖掘的运行和读写速度,并将计算单元缩小到更适合并行计算和重复使用的RDD计算模型。
  • 机器学习中ALS、凸优化梯度下降等。这些都需要基于数据集或者数据集的衍生数据反复查询反复操作。MR这种模式不太合适,即使多MR串行处理,性能和时间也是一个问题。数据的共享依赖于磁盘。另外一种是交互式数据挖掘,MR显然不擅长。而Spark所基于的scala语言恰恰擅长函数的处理。
  • Spark是一个分布式数据快速分析项目。它的核心技术是弹性分布式数据集(ResilientDistributedDatasets),提供了比MapReduce丰富的模型,可以快速在内存中对数据集进行多次迭代,来支持复杂的数据挖掘算法和图形计算算法。
  • Spark和Hadoop的根本差异是多个作业之间的数据通信问题:Spark多个作业之间数据通信是基于内存,而Hadoop是基于磁盘。
  • Spark Task的启动时间快。Spark采用fork线程的方式,而Hadoop采用创建新的进程的方式。
  • Spark只有在shuffle的时候将数据写入磁盘,而Hadoop中多个MR作业之间的数据交互都要依赖于磁盘交互。
  • Spark的缓存机制比HDFS的缓存机制高效。

经过上面的比较,我们可以看出在绝大多数的数据计算场景中,Spark确实会比MapReduce更有优势。但是Spark是基于内存的,所以在实际的生产环境中,由于内存的限制,可能会由于内存资源不够导致Job执行失败,此时,MapReduce其实是一个更好的选择,所以Spark并不能完全替代MR

四、Spark核心模块

在这里插入图片描述
Spark共有Spark Core、Spark SQL、Spark Streaming、Spark MLlib和Spark GraphX五个模块,其中我们只需要学习前四个模块即可。

Spark Core(重点)

Spark Core中提供了Spark最基础与最核心的功能,Spark其他的功能如:Spark SQL,Spark Streaming,GraphX,MLlib都是在Spark Core的基础上进行扩展的。

Spark SQL(重点)

Spark SQL是Spark用来操作结构化数据的组件。通过Spark SQL,用户可以使用SQL或者Apache Hive版本的SQL方言(HQL)来查询数据。

Spark Streaming(重点)

Spark Streaming是Spark平台上针对实时数据进行流式计算的组件,提供了丰富的处理数据流的API。

Spark MLlib(重点)

MLlib是Spark提供的一个机器学习算法库。MLlib不仅提供了模型评估、数据导入等额外的功能,还提供了一些更底层的机器学习原语。

Spark GraphX(了解)

GraphX是Spark面向图计算提供的框架与算法库。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值