Spark Unified Memory Manager分析

spark Executor的内存大小设置一直是长期困扰开发人员和分析师的一个大问题。不同应用使用的算法和数据不同,一次内存设置也是难以评估,设置过大会造成资源浪费,其余任务得不到资源而等待。设置过小,计算过程中会带来频繁的GC和磁盘读写,缓存数据比较少,还有可能会带来OOM,也会影响到性能。

针对上述的问题,spark 1.6 带来了新的内存管理机制,Unified Memory Manager。

以前的内存管理

日常使用中,我们通过spark.executor.memory来控制一个executor最多可以使用的内存大小,实际上是通过设置Executor的JVM的Heap大小实现的。

在spark1.6之前,Executor的内存界限分明,分别由3部分组成:execution,storage和system。

  1. execution
    execution空间通过设置spark.shuffle.memoryFraction参数来控制大小,默认为0.2。为了避免shuffle,join,排序和聚合这些操作直接将数据写入磁盘,所设置的buffer大小,减少了磁盘读写的次数。

  2. storage
    storage空间通过设置spark.storage.memoryFraction参数来控制大小,默认为0.6。用于存储用户显示调用的persist,cache,broadcast等命令存储的数据空间。

  3. system
    程序运行需要的空间,存储一些spark内部的元数据信息,用户的数据结构,避免一些不寻常的大记录带来的OOM。

之前的管理方式,最明显的就是对execution和storage空间进行了明显的划分。举个例子,一些任务可能对数据缓存的需求并不是很高,就会造成storage空间的浪费。

因此,spark1.6带来了新的内存管理机制。

Unified MemoryManager简述

为了解决上述出现的问题,新提出的内存管理机制淡化了execution空间和storage空间的边界,让它们之间可以相互“借”内存。

通过spark.memory.useLegacyMode参数来决定是否开启新的内存管理机制,默认为开启。

它们总共可用的内存由spark.memory.fraction参数控制(默认为0.75)。在该空间内部,对execution和storage进行了进一步的划分。由spark.memory.storageFraction参数控制(默认为0.5),这意味着strorage空间真实占有的executor空间为:

0.75*0.5 = 0.375

exetution向storage”借“内存

在程序执行过程中,如果execution空间不足,则会向storage空间提出申请,storage会将空闲内存借给execution使用,如果不够,则会释放之前向execution借的内存。

execution申请在acquireStorageMemory方法中实现。

每次申请空间前会进行相应判断,在maybeGrowExecutionPool方法中:

//extraMemoryNeeded为需要申请的内存
def maybeGrowExecutionPool(extraMemoryNeeded: Long): Unit = {
    if (extraMemoryNeeded > 0) { 
        //判断storage空闲空间和向execution借去的空间,取较大的那个。
        //如果需要,storage会将先前向execution借的内存取消缓存进行返还。
        val memoryReclaimableFromStorage =
              math.max(storageMemoryPool.memoryFree, storageMemoryPool.poolSize - storageRegionSize)
      //判断是否还有内存可以借出     
       if (memoryReclaimableFromStorage > 0) {
          //如果剩余内存不够申请的,则将可用内存全部借出。
            val spaceReclaimed = storageMemoryPool.shrinkPoolToFreeSpace(
                math.min(extraMemoryNeeded, memoryReclaimableFromStorage))
                onHeapExecutionMemoryPool.incrementPoolSize(spaceReclaimed)
          }
    }
}

storage向execution“借”内存

同样的,在storage需要内存的时候,execution也会将它的空闲内存借出去。因为实现复杂,所以execution空间不会被storage驱逐。这种机制带来的问题是,如果execution占据了storage大部分空间。这时候对一些数据的缓存可能会失败。

在下面的方法中可以清楚的看出,storage可使用的最大内存是maxMemory-execution已使用的内存数,意思就是说,即使execution占据了storage的空间也不会被收回,直到execution自己释放。

  override def maxStorageMemory: Long = synchronized {
    maxMemory - onHeapExecutionMemoryPool.memoryUsed
  }   

storage申请在acquireExecutionMemory方法中进行了实现。

override def acquireStorageMemory(
      blockId: BlockId,
      numBytes: Long,
      evictedBlocks: mutable.Buffer[(BlockId, BlockStatus)]): Boolean = synchronized {

    //如果需要空间大于Storage现有的最大内存空间,直接返回失败
    if (numBytes > maxStorageMemory) {
      return false
    }

    //如果需要空间比当前storage剩余空间多,则去借execution的空闲空间。
    if (numBytes > storageMemoryPool.memoryFree) {
      val memoryBorrowedFromExecution = Math.min(onHeapExecutionMemoryPool.memoryFree, numBytes)
      onHeapExecutionMemoryPool.decrementPoolSize(memoryBorrowedFromExecution)
      storageMemoryPool.incrementPoolSize(memoryBorrowedFromExecution)
    }
    storageMemoryPool.acquireMemory(blockId, numBytes, evictedBlocks)         

更多实现细节可以去org.apache.spark.memory.UnifiedMemoryManager代码中查看。

带来的好处

除开极端内存使用环境(execution和storage空间都被占满)的情况下,新的内存管理机制能够减少shuffle过程中将数据spill到磁盘的次数或者提高数据的缓存比例,都能对程序运行速度带来一定的提升,同时也减少了调试参数的次数。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值