Spark on Yarn中的Executor内存设置

目录

背景介绍

Yarn

Spark

Spark on Yarn

Executor内存设置


背景介绍

Yarn

yarn是一个主从型的计算资源管理系统,包含一个ResourceManager和多个NodeManager。其中ResourceManager负责整个集群的资源调度,管理NodeManager;NodeManager负责管理单个节点。

Spark

Spark是一种分布式计算框架,可以在多种集群资源管理器上运行。Spark计算任务运行时,会首先运行一个driver,相当于计算任务的main函数。它负责计算任务的调度,driver会管理多个executor,executor上会运行具体的计算任务。

Spark on Yarn

Spark on yarn 模式有两种, yarn-client, yarn-cluster, 其中yarn-client适合测试环境, yarn-cluster适合生产环境。

Executor内存设置

Spark的executor运行在单独的JVM中。spark.executor.memory这个参量设置的就是JVM的堆内存,也是executor实际可以使用的内存。JVM本身也需要一定的内存,这部分内存的大小通过spark.executor.memoryOverhead设置。这两部分的和就是向Yarn申请的Container内存大小。spark.executor.memory
该参数用于设置每个Executor进程的内存。Executor内存的大小,很多时候直接决定了Spark作业的性能,而且JVM OOM在Executor中更为常见。
spark.executor.memoryOverhead
设置申请Executor的堆外内存,主要用于JVM自身,字符串, NIO Buffer等开销,注意memoryOverhead 这部分内存并不是用来进行计算的,用户代码及spark都无法直接操作。如果不设置该值,那么默认为spark.executor.memory * 0.10,最小为384 MB。

Yarn配置文件中会限制Container的最小内存(yarn.scheduler.minimum-allocation-mb)、最大内存(yarn.scheduler.maximum-allocation-mb)。

Container的内存分配大致如下:

  • JVM堆外内存:spark.executor.memoryOverhead
  • JVM堆内存:spark.executor.memory
    • 用于计算(如shuffle操作)和存储
      spark.memory.fraction * (JVM堆内存 - 300M)spark.memory.fraction默认值为0.6。这部分内存会有一个比例专门用于存储;这个比例通过spark.memory.storageFraction设置。其他的部分会在运行中动态的调整。
    • 用于保存Spark元数据

计算公式:

storage memory = (spark.executor.memory - 300M) * spark.storage.memoryFraction * spark.storage.safetyFraction + spark.executor.memoryOverhead

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT_心如止水

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值