在sparksql做join时发现,虽然在这里设置了sparksql的shuffle为1200,但是从实际来看并没有效果–
查了一些资料后发现如果在脚本设置了上图所示的conf,即开启动态分区,那么spark.sql.shuffle.partitions自定义分区就没有效果
两种解决方案
①set spark.sql.adaptive.enabled=false
②算子层面使用repartition算子
sparksql set spark.sql.shuffle.partitions
最新推荐文章于 2024-10-23 20:32:17 发布