Spark 常见问题小结

本文总结了Spark使用中常见的问题,包括WARN TaskSchedulerImpl警告、应用未充分利用核心、Executor内存溢出、Shark Server元数据清理和类路径问题。针对这些问题,给出了配置调整建议,如设置spark.cores.max、调整executor内存、解决classpath冲突等。同时,讨论了Spark性能优化的三个关键点:sort-based shuffle、Netty网络模块和external shuffle service,这些优化显著提高了硬件资源的利用率。
摘要由CSDN通过智能技术生成

1、WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster uito ensure that workers are registered and have sufficient memory

当前的集群的可用资源不能满足应用程序所请求的资源。
资源分2类: coresram
Core代表对执行可用的executor slots
Ram代表每个Worker上被需要的空闲内存来运行你的Application。
解决方法
应用不要请求多余空闲可用资源的

关闭掉已经执行结束的Application


2、Application isn’t using all of the Cores: How to set the Cores used by a Spark App

设置每个App所能获得的core
解决方法

spark-env.sh里设置spark.deploy.defaultCores


spark.cores.max


3、Spark Executor OOM: How to set Memory Parameters on Spark

OOM是内存里堆的东西太多了
1、增加job的并行度,即增加job的partition数量,把大数据集切分成更小的数据,可以减少一次性load到内存中的数据量。InputFomart, getSplit来确定。

2、spark.storage.memoryFract
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值