目录
背景介绍
Yarn
yarn是一个主从型的计算资源管理系统,包含一个ResourceManager和多个NodeManager。其中ResourceManager负责整个集群的资源调度,管理NodeManager;NodeManager负责管理单个节点。
Spark
Spark是一种分布式计算框架,可以在多种集群资源管理器上运行。Spark计算任务运行时,会首先运行一个driver,相当于计算任务的main函数。它负责计算任务的调度,driver会管理多个executor,executor上会运行具体的计算任务。
Spark on Yarn
Spark on yarn 模式有两种, yarn-client, yarn-cluster, 其中yarn-client适合测试环境, yarn-cluster适合生产环境。
Executor内存设置
Spark的executor运行在单独的JVM中。spark.executor.memory这个参量设置的就是JVM的堆内存,也是executor实际可以使用的内存。JVM本身也需要一定的内存,这部分内存的大小通过spark.executor.memoryOverhead设置。这两部分的和就是向Yarn申请的Container内存大小。spark.executor.memory
该参数用于设置每个Executor进程的内存。Executor内存的大小,很多时候直接决定了Spark作业的性能,而且JVM OOM在Executor中更为常见。
spark.executor.memoryOverhead
设置申请Executor的堆外内存,主要用于JVM自身,字符串, NIO Buffer等开销,注意memoryOverhead 这部分内存并不是用来进行计算的,用户代码及spark都无法直接操作。如果不设置该值,那么默认为spark.executor.memory * 0.10,最小为384 MB。
Yarn配置文件中会限制Container的最小内存(yarn.scheduler.minimum-allocation-mb)、最大内存(yarn.scheduler.maximum-allocation-mb)。
Container的内存分配大致如下:
- JVM堆外内存:spark.executor.memoryOverhead
- JVM堆内存:spark.executor.memory
- 用于计算(如shuffle操作)和存储
spark.memory.fraction * (JVM堆内存 - 300M)spark.memory.fraction默认值为0.6。这部分内存会有一个比例专门用于存储;这个比例通过spark.memory.storageFraction设置。其他的部分会在运行中动态的调整。 - 用于保存Spark元数据
- 用于计算(如shuffle操作)和存储
计算公式:
storage memory = (spark.executor.memory - 300M) * spark.storage.memoryFraction * spark.storage.safetyFraction + spark.executor.memoryOverhead