spark.default.parallelism=6000
spark.sql.shuffle.partitions=6000
时OOM,
改为
spark.default.parallelism=2000
spark.sql.shuffle.partitions=2000
问题解决
Spark OOM 可能的内存溢出参数
最新推荐文章于 2022-04-26 22:04:27 发布
当遇到Spark作业运行时出现OOM错误,通常与内存配置不当有关。本文深入探讨了Spark内存溢出的常见参数,如executor-memory、driver-memory等,并提供了调整这些参数以优化内存使用和避免溢出的策略。
摘要由CSDN通过智能技术生成