spark 性能调优 JVM调优原理概述

本文讨论了Spark性能调优的关键点,包括资源分配、并行度优化、JVM参数调整、shuffle阶段的优化以及算子调优。特别强调了JVM内存管理,尤其是在RDD缓存和对象创建对内存的影响,以及如何通过调整内存分配比例来改善性能。
摘要由CSDN通过智能技术生成

1、常规性能调优:分配资源、并行度。。。等
2、JVM调优(Java虚拟机):JVM相关的参数,通常情况下,如果你的硬件配置、基础的JVM的配置,
都ok的话,JVM通常不会造成太严重的性能问题;反而更多的是,在troubleshooting中,
JVM占了很重要的地位;JVM造成线上的spark作业的运行报错,甚至失败(比如OOM)。
3、shuffle调优(相当重要):spark在执行groupByKey、reduceByKey等操作时的,shuffle环节的调优。
这个很重要。shuffle调优,其实对spark作业的性能的影响,是相当之高!!!
经验:在spark作业的运行过程中,只要一牵扯到有shuffle的操作,基本上shuffle操作的性能消耗,
要占到整个spark作业的50%~90%。10%用来运行map等操作,90%耗费在两个shuffle操作。
groupByKey、countByKey。
4、spark操作调优(spark算子调优,比较重要):groupByKey,countByKey或aggregateByKey来重构实现。
有些算子的性能,是比其他一些算子的性能要高的。foreachPartition替代foreach。
如果一旦遇到合适的情况,效果还是不错的。

1、分配资源、并行度、RDD架构与缓存
2、shuffle调优
3、spark算子调优
4、JVM调优、广播大变量。。。

JVM调优里面所有官方都推荐来降低cache操作占比

理论基础:

spark是用scala开发的。大家不要以为scala就跟java一点关系都没有了,这是一个很常见的错误。

spark的scala代码调用了很多java api。scala也是运行在java虚拟机中的。
spark是运行在java虚拟机中的。

java虚拟机可能会产生什么样的问题:内存不足??!!

我们的RDD的缓存、task运行定义的算子函数,可能会创建很多对象。都可能会占用大量内存,
没搞好的话,可能导致JVM出问题。

堆内存!!!

存放我们创建的一些对象,堆内存分为年轻带young generation和老年带old generation,年轻带内部
又分为三块,Eden区域比较大,两个survivor区域比较小存活区域

我们在spark task执行算子函数(我们自己写的针对RDD的操作),可能会创建很多对象,这些对象,
都是要放入JVM年轻代中的。

比如我们项目里面的SessionDetail给保存到mysql里面的时候foreach它会遍历每个元素,比如100万个
session,那每个算子函数里面都要产生很多100万个sessionDetail对象!这些对象都要放入到年轻带中的!

每一次放对象的时候,都是放入eden区域,和其中一个survivor区域;另外一个survivor区域是空闲的。
当eden区域和一个survivor区域放满了以后(spark运行过程中,产生的对象实在太多了),
就会触发minor gc,小型垃圾回收。垃圾回收器gc会把不再使用的对象,从内存中清空,
给后面新创建的对象腾出来点儿地方。

清理掉了不再使用的对象之后,那么也会将存活下来的对象(还要继续使用的),
放入之前空闲的那一个survivor区域中。这里可能会出现一个问题。默认eden、survior1和survivor2的
内存占比是8:1:1。问题是,如果存活下来的对象是1.5,一个survivor区域放不下。
此时就可能通过JVM的担保机制(不同JVM版本可能对应的行为),将多余的对象,直接放入老年代了。

如果你的JVM内存不够大的话,可能导致频繁的年轻代内存满溢,频繁的进行minor gc。
频繁的minor gc会导致短时间内,有些存活的对象,多次垃圾回收都没有回收掉。就是那些一直在用的
又不能被释放的就频繁的倒来倒去!
会导致这种短声明周期(其实不一定是要长期使用的)对象,每回收一次,年龄长一岁!
年龄过大,垃圾回收次数太多还没有回收到,跑到老年代。

说白了就是短声明周期对象却跑到老年代里面去了!!!本来是短周期的,结果倒来倒去跑到老年代里面
去了,理想情况下,老年代都是放一些声明周期很长的对象,数量应该是很少的。比如数据库连接池,
数据库连接池本来就很少,应该一个或几个吧。

简而言之,老年代中,可能会因为内存不足,囤积一大堆,短生命周期的,本来应该在年轻代中的,
可能马上就要被回收掉的对象。此时,可能导致老年代频繁满溢。频繁进行full gc(全局/全面垃圾回收)。
full gc就会去回收老年代中的对象。full gc由于这个算法的设计,是针对的是,老年代中的对象数量很少,
满溢进行full gc的频率应该很少,因此采取了不太复杂,但是耗费性能和时间的垃圾回收算法。
full gc很慢。

full gc / minor gc,无论是快,还是慢,都会导致jvm的工作线程停止工作,stop the world。
简而言之,就是说,gc的时候,spark停止工作了。等着垃圾回收结束。

内存不充足的时候,问题:
1、频繁minor gc,也会导致频繁spark停止工作
2、老年代囤积大量活跃对象(短生命周期的对象),导致频繁full gc,full gc时间很长,短则数十秒,
长则数分钟,甚至数小时。可能导致spark长时间停止工作。
3、严重影响咱们的spark的性能和运行的速度。

JVM调优的第一个点:降低cache操作的内存占比

spark中,堆内存又被划分成了两块儿,一块儿是专门用来给RDD的cache、persist操作进行RDD数据缓存
用的;另外一块儿,就是我们刚才所说的,用来给spark算子函数的运行使用的,
存放函数中自己创建的对象。

默认情况下,给RDD cache操作的内存占比,是0.6,60%的内存都给了cache操作了。但是问题是,
如果某些情况下,cache不是那么的紧张,问题在于task算子函数中创建的对象过多,然后内存又不太大,
导致了频繁的minor gc,甚至频繁full gc,导致spark频繁的停止工作。性能影响会很大。

针对上述这种情况,大家可以在之前我们讲过的那个spark ui。yarn去运行的话,那么就通过yarn的界面,
去查看你的spark作业的运行统计,很简单,大家一层一层点击进去就好。可以看到每个stage的运行情况,
包括每个task的运行时间、gc时间等等。如果发现gc太频繁,时间太长。此时就可以适当调节这个比例。

降低cache操作的内存占比,大不了用persist操作,选择将一部分缓存的RDD数据写入磁盘,
或者序列化方式,配合Kryo序列化类,减少RDD缓存的内存占用;降低cache操作内存占比;对应的,
算子函数的内存占比就提升了。这个时候,可能,就可以减少minor gc的频率,同时减少full gc的频率。
对性能的提升是有一定的帮助的。

一句话,让task执行算子函数时,有更多的内存可以使用。

spark.storage.memoryFraction,0.6 -> 0.5 -> 0.4 -> 0.2

观察spark作业的运行统计!!!然后看看整体运行时间有没有改善!gc是否
频繁,gc时间等!上述比例都可以调!根据不同需求来做!

.set(“spark.storage.memoryFraction”, “0.5”)

  • 5
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值