02.spark-core入门(算子和Spark任务执行流程)

一、Spark Core概念讲解

Spark Core:内核,也是Spark中最重要的部分。

  • 相当于Mapreduce
  • SparkCore 和 Mapreduce都是进行离线数据分析
  • SparkCore的核心:RDD(弹性分布式数据集),由分区组成

二、RDD的五大特性

 

    1、RDD是由一系列的partition组成的。

        partition一般有三种方式产生

    (1)从Scala集合中创建,通过调用SparkContext#makeRDD或SparkContext#parallelize
             是可以指定partition 个数的,若指定了具体值,那么partition的个数就等于该值
        对于从 Scala集合中转换而来的RDD:默认的partition数为defaultParallelism,该值在不同的部署模式下不同:
            Local 模式:本机 cpu cores 的数量
            Mesos 模式:8
            Yarn:max(2, 所有 executors 的 cpu cores 个数总和)
        对于从外部数据加载而来的 RDD:默认的 partition 数为 min(defaultParallelism, 2)
        对于执行转换操作而得到的 RDD:视具体操作而定,如 map 得到的 RDD 的 partition 数与 父 RDD 相同;
            union 得到的 RDD的 partition 数为父 RDDs 的 partition 数之和...
   (2) 加载外部数据来创建 RDD,例如从 HDFS 文件、mysql 数据库读取数据等
   (3)由其它 RDD 执行 transform 操作转换而来
2、函数是作用在每一个partition(split)上的。
        partition 是 RDD 的数据单位,代表了一个分区的数据。但这里千万不要搞错了,partition 是逻辑概念,
        是代表了一个分片的数据,而不是包含或持有一个分片的数据。
3、RDD之间有一些列的依赖关系。
        如下图,可以看到RDD1产生RDD2;RDD2产生RDD3,即RDD分裂时返回的仍是RDD集,
        这样就形成了RDD间的层级依赖
4、partitioner是作用在K,V格式的RDD上。
        partitioner即分区器,即决定RDD的每一条消息应该分到哪个分区。
        但只有 k, v 类型的RDD才能有partitioner(当然,非 key,value类型的RDD的partitioner为None)。

5、RDD提供一系列最佳的计算位置
        spark提供了一种机制,在集群中运行任务时,会把task发送到集群中需要读取存储数据的节点来运行,不会将task随意发送到无关节点,这样减少数据节点间网络传输时间,做到计算移动、而数据不移动,实现了最佳计算位置。

RDD特性理解图:

 

三、 Spark任务执行流程

1、基于standalone-client模式

(1)spark集群启动,Worker节点向Master节点汇报各自资源,master掌握集群资源

(2)在client提交spark应用程序,此时会再client启动一个Driver进程

(3)Driver向Master请求资源,Master收到请求后,在集群中找到符合要求的节点启动Executor

(4)Driver发送task到Worker,Worker上启动的Executor开始执行任务,完成后Driver负责并回收结果

2、基于standalone-cluster模式

standalone-cluster和standalone-client不同的是,client提交任务后,不会再启动Driver,而是Master在集群中找一台节点,即Worker上启动Driver,把Driver分散在集群节点中运行,这样避免了client上提交多个任务而引起的网络流量激增问题。client没有Driver 进程,也看不到task执行情况,以及接收不到输出结果。

3、基于yarn-client模式

(1)Hadoop集群启动,NodeManager(NM)向ResourceManager(RM)通信,汇报各自资源,RM掌握集群资源

(2)client上提交spark应用,同时启动Driver,client向RM申请资源,启动ApplicationMaster(AM)

(3)RM在随机选择集群中的一个NM,来启动AM,AM向RM申请资源启动Executor,RM分配资源给NM启动Executor

(4)Executor通知Driver,Driver发送task给Executor,Executor执行完成,返回结果给Driver

4、基于yarn-cluster模式

yarn-cluste和yarn-client不同的是,client提交任务后,不会再启动Driver,而是RM在集群中找一台节点,即NM上启动Driver,把Driver分散在集群节点中运行,这样避免了client上提交多个任务而引起的网络流量激增问题。client上没有Driver 进程,也看不到task执行情况,以及接收不到输出结果。

术语解释

术语解释

四、Spark代码流程

(1)创建SparkConf对象

        可以设置Applicationname、可以设置运行模式及资源需求。

(2)创建SparkContext对象

(3) 基于Spark的上下文创建一个RDD,对RDD进行处理

(4)应用程序中要有Action类算子来触发Transformation类算子执行。

(5)关闭Spark上下文对象SparkContext。

五、算子操作

1、Transformations转换算子

Transformations类算子是一类算子(函数)叫做转换算子,如map,flatMap,reduceByKey等。Transformations算子是延迟执行,也叫懒加载执行。

2、Action行动算子

Action类算子也是一类算子(函数)叫做行动算子,如foreach,collect,count等。Transformations类算子是延迟执行,Action类算子是触发执行。一个application应用程序中有几个Action类算子执行,就有几个job运行。

3、持久化算子

有时候会多次对同一个RDD进行计算,如果每次只是简单地调用行动算子,spark每次都会重新计算RDD及其所有依赖,这在迭代算法中消耗格外大。为了避免多次计算同一个RDD,spark引入了持久化 算子。

(1)cache

默认将RDD的数据持久化到内存中,cache是懒执行。看spark源码可以知道

chche () = persist()=persist(StorageLevel.Memory_Only),相当于persist的StorageLevel.Memory_Only

(2)persist

可以指定持久化的级别,最常用的是MEMORY_ONLY和MEMORY_AND_DISK,persist是懒执行

(3)checkpoint

checkpoint将RDD持久化到磁盘,还可以切断RDD之间的依赖关系

执行流程:当RDD的job执行完毕后,会从finalRDD从后往前回溯。当回溯到某一个RDD调用了checkpoint方法,会对当前的RDD做一个标记。Spark框架会自动启动一个新的job,重新计算这个RDD的数据,将数据持久化到指定的存储位置上

优化:对RDD执行checkpoint之前,最好对这个RDD先执行cache,这样新启动的job只需要将内存中的数据拷贝到HDFS上就可以,省去了重新计算这一步

 

 

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
kylin.query.spark-conf.spark.executor.memoryOverhead=4g是Kylin关于Spark执行器内存的参数设置。在Kylin使用Spark作为计算引擎时,该参数用于设置每个Spark执行器在运行过程可以使用的最大堆外内存。堆外内存是指位于堆以外的Java进程使用的内存空间,它通常用于存储直接内存,如Java垃圾收集器的元数据和Spark任务的执行过程产生的临时数据。 通过将kylin.query.spark-conf.spark.executor.memoryOverhead设置为4g,可以为每个Spark执行器分配4GB的堆外内存空间。这样做的目的是提高Spark任务的执行效率和稳定性。由于Spark任务在执行过程会产生大量的临时数据,如果没有足够的堆外内存空间进行存储和管理,可能会导致Spark任务频繁进行垃圾收集和内存回收,进而影响任务的性能和稳定性。 设置kylin.query.spark-conf.spark.executor.memoryOverhead=4g时需要考虑集群的可用内存大小和Spark任务的实际需求。如果集群的可用内存比较充足,并且Spark任务产生的临时数据较多,则可以适当增加该参数的值,以提高Spark任务的执行效率。反之,如果集群的可用内存有限或者Spark任务产生的临时数据较少,则可以减小该参数的值,以节省资源和提高任务的稳定性。 总之,kylin.query.spark-conf.spark.executor.memoryOverhead=4g是Kylin关于Spark执行器内存的配置参数,它决定了每个Spark执行器可以使用的最大堆外内存空间大小,合理设置该参数可以提高Spark任务的执行效率和稳定性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值