Job failed with org.apache.spark.SparkException: Job aborted due to stage failure

今天在自己写了一个 jar 使用 hive on spark 模式 提交到 yarn上运行 发现一直报这个错误

Job failed with org.apache.spark.SparkException: 
Job aborted due to stage failure: Task 0 in stage 0.0 failed 4 times, most recent failure: Lost task 0.3 in stage 0.0 (TID 4, hadoop101, executor 2): UnknownReason
FAILED: Execution Error, 
return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. 
Spark job failed during runtime. Please check stacktrace for the root cause.

搜索了一下大致总结了一下
1、 spark 运行内存不够
其实 运行内存不够的信息,应该会有也会有相应的异常抛出的而且在Hadoop的运行日志中可以看到(在/tmp/logs/han/logs-tfile 目录下可以看到每个app-id运行的日志)
2、 jar 写的时候出现了错误
如果直接出现job类型的错误应该就是 jar写错了 ,刚开始的时候我也以为是jar写错了,但是看了好几次感觉也没错,在直接copy百度的代码,也还是出现这个异常,后来看了一下hive的官网,每次提交jar 后更新,需要关闭客户端重新登录一下,才能正常运行。
ps:第二种错误在yarn日志里面也不会报错,都是info 没有warning 也没有 error.

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值