Spark任务调度失败记录

 

场景:

1、hive on spark

2、开启了动态资源分配(set spark.dynamicAllocation.enabled = true)

结果/报错日志:

21/01/06 05:09:35 WARN cluster.YarnClusterScheduler: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
21/01/06 05:09:42 INFO yarn.ApplicationMaster: Final app status: FAILED, exitCode: 16
21/01/06 05:09:42 ERROR yarn.ApplicationMaster: RECEIVED SIGNAL 15: SIGTERM
21/01/06 05:09:42 INFO spark.SparkContext: Invoking stop() from shutdown hook

原因:

集群资源不足,且动态资源分配申请的executors、内存、核数过多

解决方式:

1、扩大集群资源

2、错峰调度任务

3、关闭动态资源分配(set spark.dynamicAllocation.enabled = false),并减少申请的相应资源

4、改为hive on MapReduce/TEZ

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值