BigData |述说Apache Spark

? Index

  • 什么是Apache Spark

  • 弹性分布式数据集(RDD)

  • Spark SQL

  • Spark Streaming


? 什么是Apache Spark

1. 简单介绍下Apache Spark

Spark是一个Apache项目,被标榜为"Lightning-Fast"的大数据处理工具,它的开源社区也是非常活跃,与Hadoop相比,其在内存中运行的速度可以提升100倍。Apache Spark在Java、Scale、Python和R语言中提供了高级API,还支持一组丰富的高级工具,如Spark SQL(结构化数据处理)、MLlib(机器学习)、GraphX(图计算)、SparkR(统计分析)以及Spark Streaming(处理实时数据)。

Apache Spark 官方文档中文版:http://spark.apachecn.org/#/

640?wx_fmt=png

2. 为什么要使用Apache Spark

在我们学习一个新工具之前,需要先了解一下这门技术出现的意义、应用的场景、与同类工具相比的优缺点等等,这样子才能更加条理地去学习它,也更加容易掌握。

对于Spark,我们需要问的是:为什么有Hadoop和MapReduce,还需要它呢?可能它解决了Hadoop和MapReduce不能解决的问题,具体是什么问题呢?


☠️ MapReduce的缺陷:

  • 复杂的数据处理会被分解为很多job组成的有向无环图(DAG),然后每个Mapper和Reducer放到Hadoop集群上去执行,效率比较低;

  • MapReduce模型的抽象层次低,大量的底层逻辑需要开发者自己手工完成;

  • 在Hadoop中,每一个job的计算结果都会储存在HDFS文件存储系统中,所以每一步计算都需要进行硬盘的读存操作,增加了系统延迟;

  • 只支持批数据处理,对流数据处理无法支持。

那么,Spark到底有哪些优势,让这么多的开发者如此着迷??


? Spark的优势:

Spark最基本的数据抽象叫弹性分布式数据集(Resilient Distributed Dataset,RDD),它代表一个可以被分区(partition)的只读数据集,它内部可以有很多分区,每个分区又有大量的数据记录。

  • RDD是Spark最基本的数据结构,后面小节会详细介绍。Spark定义了很多对RDD的操作,如Map、Filter、flatMap、groupByKey和Union等,开发者可以直接使用;

  • Spark会把中间数据缓存在内存中,从而加快了处理速度;

  • Spark的并行机制是多线程模型,而MapReduce是多进程模型,我们知道,多进程模型会消耗更多的启动时间。

640?wx_fmt=png

备注:图来自于极客时间


⚽️ 弹性分布式数据集(RDD)

Spark的基础数据结构就是RDD,全称是Resilient Distributed Dataset,弹性分布式数据集。Spark基于RDD定义了很多数据操作,从而使得代码看起来非常简洁。

RDD是一个基于分布式内存的数据抽象,支持工作集的应用,也具有数据流模型的特点,表示已被分区、不可变的、并能够被并行操作的数据集合。

  • 分区: 代表同一个RDD包含的数据被储存在系统的不同节点中,这也是它可以被并行处理的前提。每个分区指向一个存放在内存或者硬盘中的数据块(Block),并且是相互独立,所以,RDD内部不会存储具体的数据。RDD中有ID与分区一一对应,从而通过底层的接口中提取数据。

  • 不可变性: 代表每一个RDD都是只读的,所包含的分区信息不可以被修改,所以如果想要修改,就只能通过转换(Transformation),得到新的RDD作为中间计算结果。这样子做,我们只需要记录它是通过哪个RDD进行哪些操作得到的,而不用立刻去具体存储计算出的数据本身,有助于提升Spark的计算效率,并且使得错误恢复更加容易。

  • 并行操作: 由于RDD的分区特性,使得它天然支持并行操作,即不同节点上的数据可以被分别处理,然后产生一个新的RDD。

640?wx_fmt=png

备注:点击看高清大图

重点说下RDD的主流分区方式:Hash partitioner和Range partitioner。前者对数据的key进行散列分区,后者则是按key的排序均匀分区,绝大部分情况下HashPartitioner都可以满足需求,但有的时候分区数据量会不均匀,而RangePartitioner则尽量保证每个分区的数据量均匀。具体的RDD分区策略可以参考:

Spark RDD分区策略:://www.jianshu.com/p/a21b3be88afd?utm_campaign


此外,也说下依赖关系,Spark支持的两种依赖关系:窄依赖(Narrow Dependency)和宽依赖(Wide Dependency)。前者就是父RDD的分区一一对应到子RDD,比如map、filter操作,后者则就是父RDD的每个分区都可以被多个子RDD的分区使用,比如Join、groupBy操作。窄依赖允许每个分区并行处理。


? 1. RDD的数据操作

RDD的数据操作分为两种:Transformation(转换)和Action(动作)。

Transformation就是用来把一个RDD转换成另一个RDD,而Action则是通过计算返回一个结果。

  • parallelize()/collect()/glom(): parallelize函数是将一个List转化为一个RDD对象,collect函数则是将RDD对象转化为一个List,glom函数则是显示RDD的分区情况。

L = [1,2,3,4,5]
old = sc.parallelize(L, 2)
print(old.collect()) // [1,2,3,4,5]
print(old.glom().collect()) // [[1,2],[3,4,5]]
  • Map: 转换操作,它把一个RDD中的所有数据通过一个函数映射成了一个新的RDD,任何原RDD中的元素在新RDD中都有且只有一个元素与之对应。

rdd = sc.parallelize(["b","a","c"])
rdd2 = rdd.map(lambda x:(x, 1)) // [("b", 1), ("a", 1), ("c", 1)]
  • Filter: 转换操作,选择原RDD中满足某些特定条件的数据,返回一个新的RDD。

rdd = sc.parallelize([1, 2, 3, 4, 5])
rdd2 = rdd.filter(lambda x:x%2 == 0) // [2, 4]
  • mapPartitions: 转换操作,类似于Map的变种,不同于map的输入函数对应RDD的所有元素,mapPartitions的输入函数应用于RDD的每个分区,也就是说每个分区的内容作为整体去处理,就是对RDD中的每个分区的迭代器进行操作。

rdd = sc.parallelize([1, 2, 3, 4], 2)
def f(iterator): yield sum(iterator)
rdd2 = rdd.mapPartitions(f) // [3, 7]
  • groupByKey: 转换操作,groupByKey和SQL中的groupBy类似,就是把对象的集合按某个key归类,返回的RDD中每个key对应一个序列。

rdd = sc.parallelize([("a", 1), ("b", 1), ("a", 2)])
rdd.groupByKey().collect()
//"a" [1, 2]
//"b" [1]
  • Collect: 动作操作,以数组的形式返回RDD的所有元素。

  • Reduce: 把RDD中的元素根据一个输入函数聚合起来。

  • Count: 返回RDD中元素的个数。

  • CountByKey: 仅适用于Key-Value pair类型的RDD,返回具有每个key的计数的<Key,Count>的map

rdd = sc.parallelize([("a", 1), ("b", 1), ("a", 1)])
sorted(rdd.countByKey().items()) // [('a', 2), ('b', 1)]

总结一下:

Spark在每次转换操作的时候,都是"惰性求值",使用了新产生的RDD来记录计算逻辑,这样就把作用在RDD上的所有计算逻辑串联起来,形成一个链条,当遇上RDD的动作操作时,Spark就会从计算链条的最后一个RDD开始,依次从上一个RDD获取数据并执行计算逻辑,最后输出结果。


? 2. RDD的持久化(缓存)

每当我们对RDD调用一个新的action操作时,整个RDD都会从头开始计算,因此如果某一个RDD被反复利用的话,这样子的方式是低效的,我们需要对其进行持久化操作。Spark中persist()和cache()方法都支持,它将RDD的数据缓存到内存或者硬盘中,大大提高反复利用的计算效率。

rdd = sc.parallelize([1, 2, 3, 4, 5])
rdd1 = rdd.map(lambda x: x+5)
rdd2 = rdd1.filter(lambda x: x % 2 == 0)
rdd2.persist()
count = rdd2.count() // 3
first = rdd2.first() // 6
rdd2.unpersist()


? Spark SQL

其实在我们实际进行数据操作的时候,并不用像上面说的那样子操作,不需要到RDD层次进行编程的,Spark生态系统里有很多库可以用,而其中的数据查询模块Spark SQL就很常用。

? 1. Spark SQL的发展

在Hadoop/MapReduce流行的时候,HDFS里就累计了大量数据,但大部分的开发者只对关系型数据库熟悉,对于MapReduce的开发还是有点难度,因此,Hive应运而生,它提供类似SQL的编程接口,HQL语句可以经过语法解析、逻辑计划、物理计划转化成MapReduce程序执行,十分方便。

当Spark面世的时候,Spark团队也是开了一个Shark来支持SQL语言查询数据,但Shark的本质是Hive,对Hive是十分依赖的,制约了Shark和其他Spark组件之间的集成。于是,14年7月,Spark团队将Shark托管给Hive,转而自己开发Spark SQL。


? 2. SparkSQL架构

SparkSQL提供了类似于SQL的操作接口,允许数据仓库、命令行、应用程序直接获取数据,提供两个API:DataFrame API和DataSet API,Python、Java和Scale的应用程序可以通过这两个API来读取和写入RDD。

640?wx_fmt=png

备注:图来自于极客时间

  • DataSet: 就是数据集,为Spark 1.6新引入的接口,其支持的转换和动作和RDD类似,如map、filter、select、count、show等等,同时,不同于RDD,DataSet提供了详细的结构信息和每列的数据类型,这可以让SparkSQL知道数据集中包含了哪些列,这样子的结构让DataSet API的执行效率更高。

  • DataFrame: 常用Python做数据分析的都知道DataFrame,但这里的有点不同。它每一列并不存储信息,所以对于DataSet我们可以直接用people.name 来访问一个人的名字,而对于DataFrame则要用people.get As [String] ("name")来访问。

下面给出了RDD、DataFrame和DataSet的对比:

640?wx_fmt=png

备注:图来自于极客时间

总结一下:

DataFrame和DataSet都是SparkSQL提供的基于RDD的结构化数据抽象,具有RDD的不可变性、分区、存储依赖关系的特性,又有关系型数据库的结构化信息,更加容易操作,大大提供开发效率,无论是哪种API,都是基于批处理模式对静态数据进行处理。


? Spark Streaming

上述说的SparkSQL都是基于批处理模式对静态数据进行处理,但如果我们需要处理流数据,就需要另外一个组件——Spark Streaming。

Spark Streaming提供了一个对于流数据的抽象 DStream,可以由来自Apache Kafka、Flume或者HDFS的流数据生成,也可以由别的DStream经过各种转换操作得到。DStream也是由很多个序列化的RDD构成,按时间片切分成的每个数据单位都是一个RDD,然后Spark核心引擎对DStream的Transformation操作变成对RDD的Transformation操作,将RDD经过操作变成中间结构保存在内存里。

? 1. DStream结构

DStream由一个个连续的RDD序列组成,每一个RDD代表一个时间窗口的输入数据流。对DStream进行操作,意味着对它包含的每一个RDD进行同样的操作。

640?wx_fmt=png

备注:图来自于极客时间


? 2. 滑动窗口操作

任何Spark Streaming的程序都要首先创建一个StreamingContext的对象,它是所有Streaming操作的入口,当中最重要的参数是批处理的时间间隔,即把流数据细分成数据块的粒度大小。这个时间间隔决定了流处理的延迟性,所以我们需要根据实际需求和资源情况来权衡时间间隔。

滑动窗口操作有两个基本参数:

  • 窗口长度(window length):每次统计的数据的时间跨度。

  • 滑动间隔(sliding interval):每次统计的时间间隔。

640?wx_fmt=png

备注:图来自于极客时间

? 3. Spark Streaming的优缺点

优点:

  • 数据容错性:如果RDD的某些分区丢失了,可以通过依赖关系重新计算恢复。

  • 运行速度: 将数据流存在在内存中,速度优势明显。

  • 扩展性: 基于Spark Streaming的应用程序容易扩展。

缺点:

  • 实时计算延迟较高:一般在的级别。


? References

  • 百度百科

  • 蔡元楠-《大规模数据处理实战》12-16小节 —— 极客时间

  • Apache Spark 官方文档中文版——ApacheCN

  • Spark之深入理解RDD结构 https://blog.csdn.net/u011094454/article/details/78992293

  • Spark RDD分区策略 https://www.jianshu.com/p/a21b3be88afd?utm_campaign



       更多大数据的原创文章 ?      


Nice!?

恭喜完成了今日份学习

如果觉得不错~

欢迎点击右下角的 “在看” 鼓励鼓励~

顺便扫码关注一下哦~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值