Spark初识

1.Spark的背景、定义、特点

        背景

                MapReduce框架局限性

                        仅支持Map和Reduce两种操作,提供给用户的只有这两种操作

                        编程复杂度略高,学习和使用成本略高

                        处理效率较低

                                Map中间结果写磁盘,Reduce写HDFS,多个MR之间通过HDFS交换数据

                                任务调度和启动开销大

                                在机器学习、图计算等方面支持有限,性能效果表现比较差。

                                mapreduce的机器学习框架,称为mahout。

        定义

                专为大规模数据处理而设计的快速通用的计算引擎,并形成一个高速发展应用广泛的生态系统

        特点

                速度快

                        内存计算下,Spark比Hadoop块100倍

                易用性

                        80多个高级运算符

                        跨语言:使用Java,Scala,Python,R和SQL快速编写应用程序。

                通用性

                        Spark 提供了大量的库,包括SQL、DataFrames、MLib、GraphX、Spark Streaming。

                        开发者可在同一个应用程序中无缝组合这些库

        支持多种资源管理器

                        Spark支持Hadoop YARN,Apache Mesos,及其自带的独立集群管理器

        生态组件丰富与成熟

                        Spark streaming:实时数据处理

                        shark/sparkSQL:用sql语句操作spark引擎

                        sparkR:用R语言sql语句操作spark

                        mlib:机器学习算法库

                        graphx:图计算组件

2.在Hadoop生态圈中位置

        在hadoop生态圈位置

        

         spark生态圈

        

         Spark Core:包含Spark的基本功能;尤其是定义RDD(弹性分布式数据集,resilient distributed dataset)的API、操作以及这两者上的动作。其他Spark的库都是构建在RDD和Spark Core之上的

        Spark SQL:提供通过Apache Hive 的SQL变体Hive查询语言(HiveQL)与Spark进行交互的API。每个数据库表当作一个RDD,Spark SQL 查询被转换为Spark操作。

        Spark Streaminig:对实时数据流进行处理和控制。Spark Streaming 允许程序能够像普通RDD一样处理实时数据

        MLib:一个常用机器学习算法库,算法被实现为对RDD的Spark操作。这个库包含可扩展的学习算法,比如分类、回归等待需要对大量数据进行迭代的操作。

        GraphX:控制图、并行图操作个计算的一组算和工具的集合。GraphX扩展了RDD API,包含控制图、创建子图、访问路径上所有顶点的操作

        SparkR是一个提供从R中使用Spark的轻量级前端的R包。在Spark1.6以后,SparkR提供了分布式数据框架,它支持selection,filtering,aggregation等操作。也支持使用MLib分布式机器学习

3.版本发展与就业前景

        版本发展

                重要里程碑

        稳定版本一览(2016年至今)

     Spark 3.1.2 (06.11 2021)
    Spark 2.4.8 (05.17 2021)
    Spark 3.1.1 (03.02 2021)
    Spark 2.4.7 (12.12 2020)
    Spark 3.0.0 (06.16 2020)
    Spark 2.4.6 (06.05 2020)
    Spark 2.4.4 (08.31 2019)
    Spark 2.4.0 (11.02 2018)
    Spark 2.3.2 (09.25 2018)
    Spark 2.3.1 (Jun 08 2018)
    Spark 2.3.0 (Feb 28 2018)
    Spark 2.2.2 (Jul 02 2018)

较经典的版本为1.X中的1.6.2版本和2.X中的2.3.2,成熟稳定,市占率高。

        Spark1.x与2.x的优缺点对比

                优点

                        API抽象更高级、更统一,包括在spark-core,sparksql,sparksession等方面,学习更简单,开发效率更高,执行效率综合提升更明显。

                        统一DataFrames和DataSets,API进行了全部统一,简化学习和编程复杂度。

                        基本定位是底层API变成沿用RDD,高级API编程均为DataSets,而大多数情况下用DataSets均可以解决问题。

                        spark-streaming基于sparksql进行了API更高级抽象,即structured streaming(结构化流程),易用性和性能提高。

                        对诸多组件中的旧的rdd计算了哟及用dataFrame或DataSet进行了重写优化,并扩充了更多的算法。

                缺点

                        与以前版本不是很兼容,只是绝大部分兼容

                        相对于1.6.x来讲,稳定性略差,bug不断

                结论

就业前景

                成熟度相比于hadoop还差一些,但自身迭代和生态圈发展很快。

                业务对是要求日益增高,各大公司和小公司都在积极调研转向spark,都需要spark、用spark的人

                spark特别适用于迭代运算比较多的机器学习算法,而机器学习正在如火如荼发展中。

                spark未来可能会取代MapReduce,但与Hasoop仍会发生友好共生

                基于内存计算是最大的优势,而内存瓶颈会越来越少,古spark的爆发点还有很大空间

                总结:岗位需求量和发展前景都很广阔,是未来3—5年的技术应用最大热门

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark是一种大数据处理的框架,它可以处理大量的数据并进行分析。初学者可以通过学习Spark的基本概念和使用方法,了解Spark的工作原理和应用场景。在学习Spark的过程中,需要掌握Spark的核心组件和API,例如Spark Core、Spark SQL、Spark Streaming等。此外,还需要学习Spark的部署和调优,以及与其他大数据技术的集成。 ### 回答2: Spark是一种基于内存的分布式计算框架,是大数据处理中最流行的技术之一。Spark简单易用,能够快速地处理海量数据,尤其是在机器学习和数据挖掘领域中表现突出。本文将从初识Spark的角度入手,介绍Spark的基本概念和使用。 一、Spark的基本概念 1. RDD RDD全称为Resilient Distributed Datasets,中文意思是弹性分布式数据集,它是Spark的核心数据结构。RDD是一个不可变的分布式的对象集合,可以跨越多个节点进行并行处理。一个RDD可以分为多个分区,每个分区可以在不同的节点上存储。 2. DAG DAG即Directed Acyclic Graph(有向无环图),它是Spark中的一个概念,用来表示作业的依赖关系。Spark一个作业拆分成一系列具有依赖关系的任务,每个任务之间的依赖形成了DAG。 3. 窄依赖和宽依赖 对于一个RDD,如果一个子RDD的每个分区只依赖于父RDD的一个分区,这种依赖就称为窄依赖。如果一个子RDD的每个分区依赖于父RDD的多个分区,这种依赖就称为宽依赖。宽依赖会影响Spark的性能,应尽量避免。 二、Spark的使用 1. 安装Spark 要使用Spark,首先需要在本地或者集群上安装Spark。下载安装包解压缩即可,然后设置环境变量,即可在命令行中运行Spark。 2. Spark Shell Spark Shell是Spark的交互式命令行界面,类似于Python的交互式控制台,可以快速测试Spark代码。在命令行中输入spark-shell即可进入。 3. Spark应用程序 除了Spark Shell,Spark还支持以应用程序的形式运行。要创建一个Spark应用程序,可以使用Scala、Java、Python等语言进行编写。使用Spark API,读取数据、处理数据、保存数据等操作都可以通过编写代码完成。 总之,Spark是一种优秀的分布式计算框架,能够在海量数据处理中发挥出强大的作用。初学者可以从掌握RDD、DAG、依赖关系等基本概念开始,逐步深入学习Spark的使用。 ### 回答3: Spark是一种快速、分布式数据处理框架,它能够在成千上万个计算节点之间分配数据和计算任务。Spark的优势在于它支持多种语言和数据源,可以在内存中快速存储和处理数据。 在初学Spark时,我们需要对Spark的架构和核心组件有一些了解。首先,Spark的核心组件是Spark Core,它是一个可以用于建立各种应用程序的计算引擎。与此同时,Spark持有丰富的,包括Spark SQL、Spark Streaming、MLLib和GraphX等,以支持在各种数据类型(文本、图像、视频、地理定位数据等)上运行各种算法。 若想要在Spark中进行任务,有两种编程API可供选择:Spark的核心API和Spark的SQL及DataFrame API。Spark的核心API基于RDDs(弹性分布式数据集),它是不可变的分布式对象集合,Spark使用RDD来处理、缓存和共享数据。此外,Spark的SQL及DataFrame API提供了更高层次的语言,可以处理结构化和半结构化数据。 除了组件和API之外,我们还需要了解Spark的4个运行模式:本地模式、Standalone模式、YARN模式和Mesos模式。本地模式由单个JVM上单个线程(本地模式)或四个线程(local[*]模式)运行。Standalone通常用于小规模集群或开发和测试环境。在YARN或Mesos模式下,Spark将任务提交给集群管理器,并通过管理器分配和管理资源。 总体来说,初学Spark时,我们需要了解Spark的核心组件、编程API和运行模式。熟悉这些概念以及Spark的架构,可以帮助我们更好地理解Spark和构建高效且可扩展的Spark应用程序。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值