spark 数据倾斜优化

本文探讨了Spark数据倾斜的原因,如数据分布不均和shuffle操作,并提供了七种解决方案,包括使用Hive预处理,过滤倾斜key,提高shuffle并行度,双重聚合,将reduce join转为map join,采样倾斜key分拆join,以及使用随机前缀扩容RDD进行join,以应对大数据处理中的数据倾斜问题。
摘要由CSDN通过智能技术生成

spark 数据倾斜优化

数据倾斜产生的原因

1、数据分布不均,有的key很多,有的key很少

2、有shuffle的过程

这两个原因也是解决数据倾斜的两个入手的方面

数据倾斜七种解决方案

其中 3、4、5、6 最重要

3和4 -- 聚合

5和6 -- 关联

1、使用Hive ETL预处理数据

2、过滤少数导致倾斜的key

3、提高shuffle操作的并行度

4、双重聚合

5、将reduce join转为map join

6、采样倾斜key并分拆join操作

7、使用随机前缀和扩容RDD进行join

使用Hive ETL预处理数据

相当于将数据倾斜提前到Hive中,Hive底层是M

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值