Spark SQL java.lang.StackOverflowError 异常处理

3 篇文章 0 订阅
1 篇文章 0 订阅

前言

之前写了一个hive业务数据ETL后导出的程序,通过通过SparkSQL实现的,当时的需求是每天导出前一天的数据。数据在hive中是有年月日分区的,为了提高效率,所以我在where条件里面每天动态生成了需要的分区条件。一直运行都没什么问题。最近需要一次导出一年的数据,我就在担心这下动态生成的分区条件肯定特别长。哈哈,果然,程序一跑在spark解析SQL的时候就报错了,错误如下:

Exception in thread "main" java.lang.StackOverflowError
        at org.apache.spark.sql.hive.HiveQl$Token$.unapply(HiveQl.scala:360)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1489)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)
        at org.apache.spark.sql.hive.HiveQl$.nodeToExpr(HiveQl.scala:1599)

StackOverflowError异常介绍

Java虚拟机中,内存结构大致分为 (heap),Java栈(Java stack), 本地方法栈(Native Method Stack), 方法区(Method Area), 程序计数器(Program Counter Register),如下图所示:
这里写图片描述
其中java栈本地方法栈是线程私有的,区别是java栈为执行的java方法服务,而本地方法栈是为本地方法服务。
只有这两个地方会抛出StackOverflowError,当栈深度超过Java虚拟机分配给线程的栈大小时就会出现这种错误。

解决方案

知道报错的原因,那么就把线程栈大小调大就可以了。
Java虚拟机有几个参数可以做调整:

-Xms 为JVM启动时分配的内存,比如-Xms512m,表示启动分配512MB内存。
-Xmx 为JVM运行过程中分配的最大内存,比如-Xmx2048m,表示JVM进程最多只能够占用2GB内存。
-Xss 为JVM启动的每个线程分配的栈内存大小,JDK1.5以后默认的是1MB。

那么我们用 -Xss 就可以了。先看一下目前默认的栈大小。

[root@cdh1 ~]# java -XX:+PrintFlagsFinal -version | grep ThreadStackSize
     intx CompilerThreadStackSize                   = 0                                   {pd product}
     intx ThreadStackSize                           = 1024                                {pd product}
     intx VMThreadStackSize                         = 1024                                {pd product}
java version "1.8.0_161"
Java(TM) SE Runtime Environment (build 1.8.0_161-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.161-b12, mixed mode)

可见目前如果程序不配置,会使用默认配置,为1MB,那么我们手动设置下栈大小。增加至6MB
如果是本地模式运行,用

 java -Xss6m -jar xxxx.jar

如果是SparkSubmit 方式运行,加上以下选项

--driver-java-options "-Xss6m"

问题成功解决!

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: Java.lang.StackOverflowErrorJava虚拟机在执行程序时遇到的一种错误,通常是由于递归调用导致的。解决方法如下: 1.检查代码中是否存在无限递归调用的情况,如果有,需要修改代码。 2.增加堆栈大小,可以通过设置JVM参数-Xss来增加堆栈大小,例如:java -Xss2m Main。 3.优化代码,减少递归调用的深度,可以使用循环代替递归。 4.使用尾递归优化,将递归调用转换为迭代调用,可以避免栈溢出的问题。 5.使用非递归算法,避免使用递归算法,可以避免栈溢出的问题。 6.升级JVM版本,如果是JVM版本的问题,可以升级JVM版本来解决问题。 ### 回答2: Spark是一个大数据处理框架,其底层实现涉及到大量的递归算法,因此在处理大量数据的情况下,容易出现java.lang.stackoverflowerror错误。下面是一些可能的解决方法: 1.增加JVM堆栈大小 由于大多数情况下java.lang.stackoverflowerror错误是由于线程占用堆栈空间过多导致的,因此可以通过增加JVM堆栈大小来解决该错误。通过设置JVM参数-Xss,可以增加堆栈大小。例如,将-Xss设置为4m,则堆栈大小为4MB。需要注意的是,过大的堆栈大小可能会降低整体性能并增加资源消耗。 2.优化代码 优化代码可以减少递归算法的使用,在处理大数据量时可能会降低出错率。例如,可以使用迭代算法代替递归算法,或者使用尾递归优化。 3.增加可用CPU资源 由于Spark处理大数据通常需要使用多个线程,因此增加可用CPU资源可以减少java.lang.stackoverflowerror错误的发生。例如,可以增加Spark集群中的计算节点数量或增加每个节点上的CPU核心数量。 4.更换硬件设备 在处理大数据量和高并发量的情况下,硬件设备可能成为瓶颈,导致java.lang.stackoverflowerror错误的发生。因此,更换更强大的硬件设备可以有效地解决该问题。 总之,解决java.lang.stackoverflowerror错误有多种方法,要根据具体情况选择合适的解决方案。在实际应用中,应该综合考虑效率、资源占用、可维护性等因素,从而达到最佳的解决方案。 ### 回答3: 在使用Spark进行大数据处理时,有时会出现java.lang.stackoverflowerror错误。这个错误通常是由递归方法调用过多造成的。 为了解决这个问题,我们可以采取以下方法: 1. 增加JVM内存分配:可以通过在启动Spark时增加JVM内存分配来解决这个问题。可以通过--driver-memory 或者 --executor-memory 来配置分配的内存大小。 2. 优化代码:检查代码中是否存在过多的递归方法调用。可以采用迭代的方式代替递归,或者增加递归深度限制等方法来降低递归深度。 3. 优化数据处理:检查数据处理方式是否合理,是否存在过多的迭代或者递归处理。可以采用分布式处理或者MapReduce等方法将数据拆分为小批次进行处理。 4. 使用栈深度调整参数:对于JVM中的递归方法调用栈,可以适当调整栈深度参数来解决StackOverflowError错误。可以通过-Xss参数来调整栈深度大小。 总的来说,解决java.lang.stackoverflowerror错误需要综合考虑代码质量、数据处理方式以及JVM内存分配等方面。只有在综合考虑并进行优化后,才能有效避免这个问题的出现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值