spark内存、GC及数据结构调优

一、基本概述

调优内存的使用主要有三个方面的考虑:对象的内存占用量(可能希望整个数据集都适合内存),访问这些数据的开销,垃圾回收的负载。

默认情况下,java的对象是可以快速访问的,但是相比于内部的原始数据消耗估计2-5倍的空间。主要归于下面三个原因:

  • 1)每个不同的Java对象都有一个“对象头”,它大约是16个字节,包含一个指向它的类指针。对于一个数据很少的对象(比如一个Int字段),这可能比数据大
  • 2)Java字符串在原始字符串数据上具有大约40字节的开销(因为它们将它们存储在一个Chars数组中,并保留额外的数据,例如长度),并且由于String的内部使用UTF-16编码而将每个字符存储为两个字节。因此,一个10个字符的字符串可以容易地消耗60个字节。
  • 3)常用集合类(如HashMap和LinkedList)使用链接的数据结构,其中每个条目都有一个“包装器”对象(例如Map.Entry)。该对象不仅具有头部,还包括指针(通常为8个字节)到列表中的下一个对象。
  • 4)原始类型的集合通常将它们存储为“boxed”对象,如java.lang.Integer

本文从Spark的内存管理概述开始,然后讨论用户可以采取的具体策略,以便在应用程序中更有效地使用内存。具体来说,本文将描述如何确定对象的内存使用情况,以及如何改进数据结构,或通过以序列化的格式存储数据,然后将介绍调优Spark的缓存大小和Java垃圾回收器。

二、Spark的内存管理概述

Spark中的内存使用大部分属于两类:执行和存储。运行内存指的是用于计算的、shuffle、joins、sorts和aggregations,然后存储内存主要用于缓存和在集群中传播的内部数据。在Spark内部,存储器和执行器共享一个统一的区域(M)。当没有执行器内存的时候,存储器可以获取所有可用的执行器内存,反之亦然。如果有需要执行器可以驱逐存储占用,但是仅仅当内存小于一个阈值(R)的时候才会发生。换句话说,R描述了M内部的一个子区域,R中的缓存永远不会被清除。由于实施的复杂性,存储内存不得驱逐执行内存。该设计保证了几个理想的性能。

首先,不使用缓存的应用程序可以将整个空间用于执行,从而避免不必要的磁盘溢写。

其次,使用缓存的应用程序可以保留最小的存储空间(R),其中数据块不受驱动。

最后,这种方法为各种工作负载提供了合理的开箱即用性能,而不需要掌握内部如何分配内存的专业知识。

虽然有两个相关配置,但典型用户不需要调整它们,因为默认值适用于大多数工作负载:

  • 1)spark.memory.fraction将M的大小表示为(JVM堆空间  -300MB)的一部分(默认为0.75,新版本如spark2.2改为0.6)。剩余的空间(25%,对应的新版本是0.4)用于用户数据结构,Spark中的内部元数据,并且在稀疏和异常大的记录情况下保护OOM错误
  • 2)spark.memory.storageFraction表示R的大小作为M的一部分(默认为0.5)。R是M内的存储空间,其中缓存的块免于被执行器驱逐。

三、确定内存的消耗

最好的方式去计算一个数据的内存消耗,就是创建一个RDD,然后加入cache,这样就可以在web ui中Storage页面看到该RDD消耗了多少内存。

要估计特定对象的内存消耗,请使用SizeEstimator的估计方法。这对于尝试使用不同的数据布局来修剪内存情况以及确定广播变量在每个执行程序堆中占用的空间量非常有用。

四、调优数据结构

减少内存消耗的第一种方法是避免使用增加负担的java特性,例如基于指针的数据结构和包装对象。下面几种方法可以避免这个:

  • 1)将数据结构设计为偏好对象数组和原始类型,而不是标准的Java或Scala集合类(HashMap)。fastutil库(http://fastutils.di.unimi.it/)为与Java标准库兼容的原始类型提供方便的集合类。
  • 2)尽可能避免使用有很多小对象和指针的嵌套结构
  • 3)针对关键词,考虑使用数据ID或者枚举对象而不是字符串
  • 4)如果RAM小于32GB,可设置JVM标志-XX:+UseCompressedOops使指针为四个字节而不是入个字节,可在spark-env.sh中添加这些选项

五、序列化RDD

尽管进行了调优,当对象仍然太大而无法有效存储时,一个简单的方法来减少内存使用是使用RDD持久性API中的序列化StorageLevel(如MEMORY_ONLY_SER)以序列化形式存储它们。Spark将会将每个RDD分区存储为一个大字节数组。以序列化形式存储数据的唯一缺点是数据访问变慢,因为必须对每个对象进行反序列化。如果以序列化形式缓存数据,优先使用Kryo,因为它会使数据比Java序列化后的大小更小。

六 、垃圾回收调优

1、基本介绍

当程序的RDD频繁的变量的时候,垃圾回收将会是一个问题。RDD的一次读入,然后有很多基于它的计算,这种情况下垃圾回收没有什么问题。当Java需要驱逐旧的对象,为新对象腾出空间的时候,需要跟踪所有Java对象并找到无用的对象。垃圾收集的成本与Java对象的数量成正比,因此使用较少对象的数据结构(例如,Ints数组,代替LinkedList)将大大降低了成本。一个更好的方法是以序列化形式持久化对象,如上所述:每个RDD分区将只有一个对象(一个字节数组)。在尝试其它技术之前,如果GC是一个问题,首先要尝试的是使用序列化缓存。

由于任务的运行内存和RDD的缓存内存的干扰,GC也会是一个问题。

2、测量GC的影响

GC调优的第一步是收集关于垃圾收集发生频率和GC花费的时间的统计信息。通过将-verbose: gc -XX: + PrintGCDetails -XX: +PrintGCTimeStamps添加到Java选项来完成。下次运行Spark作业时,每当垃圾收集发生时,都会看到工作日志中打印的消息。请注意,这些日志将在群集的Executor节点上(在其工作目录中的stdout文件中),而不是driver功能中。

3、高级GC调优

为进一步调整垃圾收集,首先需要了解一些关于JVM内存管理的基本信息(JVM的垃圾回收算法):

  • 1)Java的堆内存分为两个区域新生代和老年代。新生代保存的是生命周期比较短的对象,老年代保存生命周期比较长的对象。
  • 2)新生代又分为了三个区域(Eden、Survivor1,Survivor2)
  • 3)垃圾收集过程的简化说明:当Eden已满时,Eden上运行了一个minor GC,并将Eden和Survivor1中存在的对象复制到Survivor2。Survivor将进行交换。如果一个对象足够老,或者Survivor2已满,则会移动到老年代。最后当老年代接近满的时候 ,会触发full GC。

Spark应用程序GC调优的目标是:确保生命周期比较长的RDD保存在老年代,新生代有足够的空间保存生命周期比较短的对象。这有助于避免触发Full GC去收集task进行期间产生的临时变量。下面列举几个有用的步骤:

  • 1)通过收集垃圾回收信息,判断是否有太多的垃圾回收过程。假如full gc的一个task完成之前触发了好几次,那说明运行task的内存空间不足,需要加内存
  • 2)在gc的统计信息中,如果老年代接近满了,减少用于缓存的内存(通过减小spark.memory.storageFraction)。缓存较少的对象比降低运行速度更有好处。另外,可以考虑减少年轻代,通过减小-Xmn参数设置的值。假如没有设置可以修改JVM的NewRation参数。大数JVMs默认值是2,意思是老年代占用了三分之二的总内存。这个值要足够大,相当于扩展了spark.memory.fraction。
  • 3)如果有太多的minor gc,较少的major gc,增加Eden区内存会有帮助。将Eden区内存设置的比task运行估计内存稍微大一些。如果Eden区大小确定为E,那就将新生代的内存设置为-Xmn=4/3E,按比例增加内存是考虑到survivor区所占用的内存
  • 4)尝试通过设置-XX: +UseG1GC垃圾回收器为G1。在垃圾回收器遇到瓶颈的一些情况下,可心提高性能。须注意,对于大的Executor堆,通过使用-XX:G1HeapRegionSize去增大G1的堆大小,显得尤为重要。
  • 5)如果任务是从HDFS读取数据,则可以使用HDFS读取的数据块的大小来估计任务使用的内存。须注意,解压缩块的大小通常是块大小的2或3位。所以如果希望有3或4个任务的工作空间,HDFS块的大小是64MB,可以估计Eden的大小是 4 * 3 * 64MB。
  • 6)监控垃圾收集的频率和时间如何随着新设置的变化而变化。

 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值