spark(sparkSQL)报错 WARN TaskMemoryManager: Failed to allocate a page (bytes), try again.

在执行SparkSQL任务时遇到中途频繁打印内存分配失败的日志,原因是内存不足。通过优化SQL脚本,例如在子查询中使用`DISTINCT`关键字减少数据量,从800w和1.2kw降至11w,成功解决问题。此外,还可以考虑增加Driver内存。对于大规模表的JOIN操作,可以采用先对较小表进行`GROUP BY`来降低数据量,提高查询效率。
摘要由CSDN通过智能技术生成

背景

最近在跑 sparkSQL的时候,执行到一半,频繁打印日志报错:

WARN TaskMemoryManager: Failed to allocate a page (104876 bytes), try again.
WARN TaskMemoryManager: Failed to allocate a page (104876 bytes), try again.

原因

执行任务的内存不够,需要频繁回收资源

解决办法

1、优化sql脚本。(首选,当时我就是这么解决的)
2、增加driver内存, --driver-memory 6G

我当时的sql 简化如下:

select name 
from stu
where id in (select id from in_stu);

stu数据量为 800w, in_stu 数据量为 1.2kw

优化为:

select name 
from stu
where id in (select distinct id from in_stu);

优化后in_stu id 的数据量降到 11 w,问题解决。

扩展

对于sql优化,还有另一个解决思路:

当两张很大的表 做 join 操作,比如 a left join b

可以优化为: a left join (SELECT col1, col2, sum(col3) col3 from b group by col1, col2)b

也就是说在join的时候,对于另一张表先做group by 操作 从而降低数据量

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值