spark异常:Consider boosting spark.yarn.executor.memoryOverhead

记录spark异常

1. spark内存溢出:数据倾斜问题

Container killed by YARN for exceeding memory limits…
Consider boosting spark.yarn.executor.memoryOverhead

内存溢出,百度了好多,都说调整这个那个参数,都未成功。
在这里插入图片描述
后发现是数据倾斜问题造成(某一个task执行特别慢的时候,关注一下条数)
在这里插入图片描述

解决:根据提示代码1040行定位到原因,某个rdd groupBy的key全为空,导致数据倾斜
在这里插入图片描述

2. Stage cancelled because SparkContext was shut down

小数据量8千万跑的时候没问题,3亿条一起跑,通过聚合join之类的操作 出现这个异常,后发现是reparation设置太大了,设置了15000

解决:reparation设置的8000然后就没问题了,这个值需要根据数据量及大小预估,3亿条数据约300G左右,相当于一个partition有40M
在这里插入图片描述

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值