大数据自学——Spark

Spark自学之路

Spark基础——思维导图

Spark入门的思维导图,哪块不合适还望指正!
#1.1Spark是什么

    Apache Spark 是一个快速的,多用途的计算系统,相对于Hadoop MapReduce将中间结果保存在磁盘中,Spark使用了内存保存中间结果,能在数据尚未写入硬盘时在内存中进行运算。
    Spark只是一个计算框架,不像Hadoop一样包含了分布式文件系统和完备的调度系统,若使用 Spark,需要搭载其它的文件系统和更成熟的调度系统。

#为什么会有Spark

	Spark 产生之前,已经存在非常成熟的计算系统,例如 MapReduce,这些计算系统提供了高层次的API,把计算运行在集群中并提供容错能力,从而实现分布式计算。

MR(MapReduce)的问题:
	1. 计算过程比较缓慢,不适应交互式计算,不适应迭代计算。
	2. 不是所有的计算都由Map 和 Reduce 两个阶段来构成。

Spark解决的问题:
	1. 内存存储中间结果
	2. 提供更好的API,函数式

#1.2Spark的特点

速度快

	· Spark 在内存时的运行速度是Hadoop MapReduce 的100倍
	· 基于硬盘的运算速度大概是Hadoop MapReduce 的10倍
	· Spark 实现了一种叫做RDD 的DAG执行引擎,其数据缓存在内存中可以进行迭代处理

易用

	· Spark 支持Java,Scala,Python,R,SQL等多种语言的API
	· Spark 支持超过80个高级运算符使得非常轻易的构建并行计算程序
	· Spark 可以使用基于Scala,Python,R,SQL的Shell交互式查询

通用

	· Spark提供了一个完整的技术栈,包括SQL执行,Dataset命令式API,机器学习库MLlib,图计算框架GraphX,流计算SparkStreaming
	· 用户可以在同一个应用中同时使用这些工具,这一点是划时代的

兼容

	· Spark可以运行在Hadoop Yarn,Apache Mesos,Kubernets,Spark Standalone等集群中
	· Spark可以访问HBase,HDFS,Hive,Cassandra 在内的多种数据库

总结

· 支持Java,Scala,Python 和 R的API
· 可扩展至超过8K个节点
· 能够在内存中缓存数据集,以实现交互式数据分析
· 提供命令行窗口,减少探索式的数据分析的反应时间

#1.3Spark的组件
目标
理解 Spark 能做什么
理解 Spark 的学习路线

Spark 最核心的功能是 RDDs, RDDs 存在于 spark-core 这个包内, 这个包也是 Spark 最核心的包.同时 Spark 在 spark-core 的上层提供了很多工具, 以便于适应不用类型的计算.

Spark-Core 和 弹性分布式数据集(RDDs)

· Spark-Core 是整个 Spark 的基础, 提供了分布式任务调度和基本的 I/O 功能
· Spark 的基础的程序抽象是弹性分布式数据集(RDDs), 是一个可以并行操作, 有容错的数据集合
· RDDs 可以通过引用外部存储系统的数据集创建(如HDFS, HBase), 或者通过现有的 RDDs 转换得到
· RDDs 抽象提供了 Java, Scala, Python 等语言的API
· RDDs 简化了编程复杂性, 操作 RDDs 类似通过 Scala 或者 Java8 的 Streaming 操作本地数据集合

Spark SQL

  · Spark SQL 在 spark-core 基础之上带出了一个名为 DataSet 和 DataFrame 的数据抽象化的概念
  · Spark SQL 提供了在 Dataset 和 DataFrame 之上执行 SQL 的能力
  · Spark SQL 提供了 DSL, 可以通过 Scala, Java, Python 等语言操作 DataSet 和 DataFrame
  · 它还支持使用 JDBC/ODBC 服务器操作 SQL 语言

Spark Streaming

· Spark Streaming 充分利用 spark-core 的快速调度能力来运行流分析
· 它截取小批量的数据并可以对之运行 RDD Transformation
· 它提供了在同一个程序中同时使用流分析和批量分析的能力

MLlib

· MLlib 是 Spark 上分布式机器学习的框架. Spark分布式内存的架构 比 Hadoop磁盘式 的 Apache Mahout 快上 10 倍, 扩展性也非常优良
· MLlib 可以使用许多常见的机器学习和统计算法, 简化大规模机器学习
· 汇总统计, 相关性, 分层抽样, 假设检定, 随即数据生成
· 支持向量机, 回归, 线性回归, 逻辑回归, 决策树, 朴素贝叶斯
· 协同过滤, ALS
· K-means
· SVD奇异值分解, PCA主成分分析
· TF-IDF, Word2Vec, StandardScaler
· SGD随机梯度下降, L-BFGS

GraphX

 · GraphX 是分布式图计算框架, 提供了一组可以表达图计算的 API, GraphX 还对这种抽象化提供了优化运行

总结

· Spark 提供了 批处理(RDDs), 结构化查询(DataFrame), 流计算(SparkStreaming), 机器学习(MLlib), 图计算(GraphX) 等组件
· 这些组件均是依托于通用的计算引擎 RDDs 而构建出的, 所以 spark-core 的 RDDs 是整个 Spark 的基础

#1.4Spark和Hadoop的异同

在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值