1 spark集群在执行任务时出现了:

2 原因:这是因为默认分配的内存过大(1024M)

3 解决方法:
在conf/spark-env.sh下添加export SPARK_WORKER_MEMORY=512和export SPARK_DAEMON_MEMORY=256

本文解决Spark集群执行任务时因默认内存分配过大导致的问题,通过调整SPARK_WORKER_MEMORY和SPARK_DAEMON_MEMORY参数至合理大小,有效提升集群运行效率。



转载于:https://www.cnblogs.com/t0404/p/10290931.html
1726
2万+
1644

被折叠的 条评论
为什么被折叠?