GC overhead limit exceeded : Spark

当运行Spark程序时遇到'GC overhead limit exceeded'错误,通常是executor内存不足导致。解决方法包括在VM Options中设置spark.executor.memory属性,确保其小于节点内存。在IDEA的Run configuration中设置此参数,或在${SPARK_HOME}/conf/spark-env.sh文件中修改worker内存。优化代码,如及时unpersist不再使用的RDD,也是更根本的解决策略。
摘要由CSDN通过智能技术生成

我在运行Spark程序的时候报错

java.lang.OutOfMemoryError:GC overhead limit exceeded

伴随着通常有:

java.lang.OutOfMemoryError:Java heap space

org.apache.spark.shuffle.FetchFailedException:Failed to connect to ...

这是因为executor的内存不足,导致GC杀死一些任务
登录 http://Master:8080会看到
这里写图片描述

可以看到在这个应用了,每个节点只用到了512MB,这是spark程序默认的,解决这个问题只要设置VM Options中的spark.executor.memory属性即可。
比如用的IDEA,在Run configuration里设置VM Options:

-Dspark.executor.memory
GC overhead limit exceeded是Java虚拟机在进行垃圾回收时出现的一种异常。它表示垃圾回收占用了过多的CPU时间,但仍然没有回收到足够的内存。这种异常通常是由于应用程序占用了大量内存或者存在内存泄漏导致的。 GC overhead limit exceeded异常的解决方法包括增加Java虚拟机的堆内存大小,调整垃圾回收相关的参数,或者优化代码中的内存使用。具体的解决方法取决于出现异常的具体上下文。 对于Java heap space异常,可以考虑增加Java虚拟机的堆内存大小。可以通过设置-Xmx参数来增加最大堆内存,例如java -Xmx2g表示设置最大堆内存为2GB。另外,也可以检查代码中是否存在内存泄漏的地方,确保内存使用合理。 对于PermGen space异常,可以考虑增加Java虚拟机的永久代内存大小。可以通过设置-XX:MaxPermSize参数来增加最大永久代内存,例如java -XX:MaxPermSize=256m表示设置最大永久代内存为256MB。此外,也可以检查是否存在类加载器泄漏或者大量动态生成类的情况,及时释放无用的类和资源。 总之,GC overhead limit exceeded异常通常是由于内存占用过多或者内存泄漏导致的。通过增加堆内存大小、调整垃圾回收参数、优化代码中的内存使用等方法,可以解决这个异常。具体的解决方法需要根据具体的上下文进行调整。<span class="em">1</span><span class="em">2</span><span class="em">3</span><span class="em">4</span>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值