Spark性能调优案例-优化spark估计表大小失败 和 小表关联 走 broadcast join

背景

A任务中关联一张表,该表经过过滤和去重,数据量小于10MB,实际任务耗时较长。
B任务关联一张小表,实际任务耗时较长

排查思路

A任务排查

查看spark UIsql界面:
问题1:发现并没有走广播join
观察此处join,对于76条数据的表,估计的大小超过10M,实际76条数据大小小于spark.sql.autoBroadcastJoinThreshold的值,导致这个问题的原因在对于broadcast join的官方介绍中提到,

参数名 默认值 说明
spark.sql.autoBroadcastJoinThreshold 10485760 (10 MB) Configures the maximum size in bytes for a table that will be broadcast to all worker nodes when performing a join. By setting this value to -1 broadcasting can be disabled. Note that currently statistics are only supported for Hive Metastore tables where the command ANALYZE TABLE COMPUTE STATISTICS noscan has been run.

由于脚本中存在中间的计算,导致不能正确的估算表的大小,

B任

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值