Spark 内存模型

新博客地址

环境参数

spark 内存模型中会涉及到多个配置,这些配置由一些环境参数及其配置值有关,为防止后面理解混乱,现在这里列举出来,如果忘记了,可以返回来看看:

  • spark.executor.memoryJVM On-Heap 内存(堆内内存),在使用 spark submit 提交的时候,可以通过配置 --executor-memory 来对这个值进行修改。
  • spark.yarn.executor.memoryOverhead :这是用于配置 Executor 的额外内存,因为 Executor 在执行的时候,可能会超过 executor memory,所以会为 executor 预留一部分内存。
  • spark.memory.offHeap.enabled :用于开启堆外内存(PS:这个是系统级别的,不受 JVM 管理)。
  • spark.memory.offHeap.size : 设置堆外内存大小;
  • spark.memeory.fraction :用于配置统一内存,这个值在 Spark 2.0+60%Spark 1.675%
  • spark.storage.storageFraction :用于从统一内存中分配 Storage Memory 的比例。
  • yarn.scheduler.maximum-allocation-mbSparkWorker 节点的可用内存。
  • spark.executor.cores :程序需要使用到的核数。

Executor 内存划分

Executor-内存划分

yarn.scheduler.maximum-allocation-mb 指定 NodeManagerJVM 的内存,提交任务时,如果 MemoryOverheadExecutor Memory 所占的内存之和大于分配的内存之和,那就会造成 Executor 提交失败;运行过程中超过上限阈值,进程会被杀掉。

堆内内存(On-Heap Memory)

堆内内存结构图

逐一介绍各个 Memory

  • Executor Memory:spark.executor.memory 配置,或者在提交的时候使用 --executor-memory 进行配置。
  • Reserved Memory: 这个内存是写死了的,默认 300MB,但也可以修改,前提是在测试环境下,通过修改 spark.test.reservedMemory 参数对这个值进行修改;这块内存用于存储 Spark 内部的对象。
  • Usable Memory: Executor Memory - Reserved Memory 就是可用内存。
  • Unified Memory: Usable Memory * spark.memeory.fraction 比例值(约等于 Usable Memory * 60%),这个内存由 Storage 和 Execution 共用,这两个之间有一个动态调节机制,后面说。
  • Storage Memory: Unified Memory * spark.storage.storageFraction 比例值(约等于 Unified Memory * 50%),这块内存主要是用来存储一些缓存数据的,比如 cache()persist()RDD 的缓存数据等。
  • Executor Memory: Unified Memory * (1 - spark.storage.storageFraction 比例值),这块内存用于存储 ShuffleJoinSortAggregate 等计算过程中的临时数据。
  • User Memory: Usable Memory * (1 - spark.memeory.fraction 比例值),这块内存用于保存 RDD 转换操作时需要的一些数据,如父子 RDD 的依赖关系。

堆外内存(Off-Heap Memory)

堆外内存结构图

这里要介绍的内存只有一个 Off-Heap Memory

堆外内存是 Spark 1.6+ 以后引入的一种新的内存,Spark 可以直接操作系统的堆外内存,减少了不必要的内存开销,比如 GC 扫描和垃圾回收,但也正因为堆外内存不再由 JVM 管理,所以需要手动实现内存的申请和释放逻辑,提高了内存操作的精度。

堆外内存的大小可以通过 spark.memory.offHeap.size 参数进行配置,但是堆外内存是默认关闭的,可以通过配置 spark.memory.offHeap.enable 参数进行开启。

动态调节机制

Spark 1.5 以前,Storage MemoryExecution Memory 的大小分配是静态的(也就是说从一开始计算好大小后就不会变了),当两块内存满了以后,就会把溢出的数据落到磁盘上,但总所周知,从磁盘读取数据是没有从内存中读取数据快的,所以在后来加上了动态调节机制:

  • Spark 程序提交后会计算 Storage MemoryExecution Memory 的内存大小并进行分配;
  • 当两个内存空间都不足后,就会下落到磁盘上;若对方空间富余,就会向另一端借空间:
    • Storage 向 Execution 借空间后,Execution 可以主动向 Storage 申请归还空间,并让 Storage 将数据放到磁盘上;
    • Execution 向 Storage 借空间后,Storage 是无法主动让 Execution 归还空间的,因为 Execution 中存在 Shuffle 数据,该数据需要在网络中频繁传输,随时都会用到,而 Storage 中缓存的数据相对于 Shuffle 数据更会更少用到。

Task 能申请到的内存

spark.executor.cores 参数值就是 Spark 程序运行时得到的核数(以下简称为 N),每个 Task 能够分配到的内存大小为 1/2N ~ 1/N(举例,N=4,分配到的内存为 10G,那内存大小为 1.25G ~ 2.5G)。

  • 1
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark内存模型是指Spark内存中管理和处理数据的方式。Spark使用了一种称为弹性分布式数据集(Resilient Distributed Dataset,简称RDD)的数据结构来表示和操作数据。 RDD是一个可分区、可并行计算的数据集合,它可以在集群中的多个节点上进行并行处理。RDD的特点是不可变性和容错性,即RDD的数据是只读的,一旦创建就不能修改,同时RDD会自动记录数据的血统信息,以便在节点故障时进行恢复。 Spark内存模型主要包括以下几个部分: 1. Driver:驱动器是Spark应用程序的主要控制节点,负责整个应用程序的调度和协调工作。驱动器程序会将应用程序划分为一系列的任务,并将这些任务分发给集群中的工作节点进行执行。 2. Executor:执行器是运行在集群中的工作节点上的进程,负责执行驱动器分发的任务。每个执行器都有自己的JVM进程,并且可以同时运行多个任务。执行器通过与驱动器通信来接收任务,并将任务结果返回给驱动器。 3. RDD:RDD是Spark中的核心数据结构,它代表了一个可分区、可并行计算的数据集合。RDD可以从外部数据源创建,也可以通过对其他RDD进行转换操作得到。RDD的数据可以被分区存储在内存中,以便并行处理。 4. 分区:RDD的数据可以被划分为多个分区,每个分区都是一个独立的数据片段。分区是Spark并行计算的基本单位,每个分区可以在一个执行器上进行处理。分区的数量决定了并行计算的程度。 5. 内存管理:Spark使用内存来缓存RDD的数据,以便加速后续的计算操作。Spark提供了两种类型的内存管理方式:堆内存和堆外内存。堆内存用于存储RDD的元数据和执行过程中的临时数据,而堆外内存则用于缓存RDD的数据分区。 6. 数据共享:Spark通过共享RDD的方式来实现数据的复用和传递。当一个RDD被多个任务使用时,Spark会将该RDD的数据分区复制到各个任务所在的执行器上,以便并行处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值