Spark (一):Executor内存

一、背景

        Spark是基于内存的分布式计算引擎,我们需对Executor内存管理的详细了解,方便我们遇到OOM解决问题、或者优化时更好调优,,Spark任务 启动时有两个进程,分别为Driver、Executor进程,Driver进程(内存默认1G)可能在本地启动,也可能在集群中某个工作节点上启动(根据提交模式client、Cluster等)。Driver启动会申请资源(Executor),根据配置启动对应Executor数量,每个Executor进程都会对应一定数量的内存和CPU CORE,每个Stage创建一批Task,然后将这些Task分配到各个Executor进程中执行。

 二、Executor内存简介

Spark 内存分为Storage内存、Execution内存, Storage内存主要有广播(Broadcast)数据、cache RDD数据;Execution主要是shuffle执行过程产生的中间数据;如图所示:

                                                                 (来自网上图片)

       根据上面图清晰描述了spark内存情况, Spark 2.x 采用Spark Unified Memeory,Storage、Execution双方有一方空闲可以借用(当不够用时,可以把借的部分要回来,让对方存储在磁盘),如果双方都不够用时,就存储在磁盘上。

参数说明: 

  1. num-executors:设置有多少个Executor进程来执行任务
  2. executor-memory:设置每个Executor进程对应的内存
  3. executor-cores:设置每个Executor进程对应的CPU CORE数量
  4. driver-memory:设置Driver 内存
  5. spark.storage.memoryFraction:设置Executor内存占用的比例(默认0.6)

 三、Executor内存案例

                       

spark-submit --master yarn 
--deploy-mode cluster 
-num-executors 2 
--executor-cores 3 
--executor-memory 5G 
--conf spark.yarn.executor.memoryOverhead=3G 
--driver-memory 2G 

   1、driver+executor(2个) 总共3个进程

   2、storage Memory= executor-memory(5G) * spark.storage.memoryFraction(0.6)-reservedMemory(300M)=2.7G

        Executor内存=storage*spark.storage.safetyFraction(0.5)

       Storage内存=storage*spark.storage.safetyFraction(0.5)   

 

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

码农_程序员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值