Hive数据倾斜解决方案

1、什么是数据倾斜?

由于数据分布不均匀,造成数据大量的集中到一点,造成数据热点。
任务进度长时间维持在 99%或者 100%的附近,查看任务监控页面,发现只有少量 reduce 子任务未完成,因为其处理的数据量和其他的 reduce 差异过大。单一 reduce 处理的记录数和平均记录数相差太大,通常达到好几倍之多,最长时间远大于平均时长。使得整体的任务进度时间由耗时最长的子任务决定。

2、产生数据倾斜的原因

A:key 分布不均匀

B:业务数据本身的特性

C:建表考虑不周全

D:某些 HQL 语句本身就存在数据倾斜

3、产生数据倾斜的业务场景及解决方法

(1)group by 产生数据倾斜
①根据业务合理调整分组维度
②加盐
③开启Map端聚合参数设置
group by时某一个key的数量过多导致对应的reducer负载过大时,采取map端部分聚合的策略。使用Map Combine进行map预聚合,可以减少磁盘IO传输

//是否在 Map 端进行聚合,默认为 
True set hive.map.aggr = true; 
//在 Map 端进行聚合操作的条目数目 
set hive.groupby.mapaggr.checkinterval = 100000; 
//有数据倾斜的时候进行负载均衡(默认是 false) 
set hive.groupby.skewindata = true;

(2) select语句中包含 count(distinct)时
①使用sum(1)… group by替代
②把倾斜的数据单独拿出来处理,最后union回去

(3)空值产生的数据倾斜
场景说明
在日志中,常会有信息丢失的问题,比如日志中的 user_id,如果取其中的 user_id 和用户表中的 user_id 相关联,就会碰到数据倾斜的问题。

解决方案
解决方案 1:user_id 为空的不参与关联

select * from log a join user b on a.user_id is not null and a.user_id = b.user_id
union all
select * from log c where c.user_id is null;

解决方案 2:赋予空值新的 key 值

select * from log a left outer join user b on
case when a.user_id is null then concat('hive',rand()) else a.user_id end = b.user_id

总结
方法2比方法1更好:
①IO更少,作业数更少。比如:方法1把log、jobs读取了两次,方法2只读取了一次。
②这个优化适合把空值的 key 变成一个字符串加上一个随机数,就能把造成数据倾斜的 数据分到不同的 reduce 上解决数据倾斜的问题。

改变之处:使本身为 null 的所有记录不会拥挤在同一个 reduceTask 了,会由于有替代的新设的随机字符串值,而分散到了多个 reduceTask 中了,由于 null 值关联不上,处理后并不影响最终结果。

(2)不同数据类型关联产生数据倾斜
场景说明
用户表中 user_id 字段为 int,log 表中 user_id 为既有 string 也有 int 的类型, 当按照两个表的 user_id 进行 join 操作的时候,默认的 hash 操作会按照 int 类型的 id 进 行分配,这样就会导致所有的 string 类型的 id 就被分到同一个 reducer 当中

第一种:(hive0.11之前使用)将小表(或者是子查询)写在join左边

select field from smallTable inner join bigTable on ...

原因:位于Join操作符左边的表的内容会被加载进内存,在map端完成reduce。

第二种:(hive0.11之后会自动开启mapjoin)打开mapjoin功能(默认是打开的,需要检查):

       set hive.auto.convert.join=true; 
       // 设置mapjoin优化自动开启
       set hive.mapjoin.smalltable.filsize=25000000 
       // 设置小表不超过多大时开启mapjoin优化

★原因:将其中的小表分发到所有的MapTask端进行join,
避免在map端进行聚合,减少shuffle阶段的IO传输,提高效率

第三种:那么如果小表不大不小,那该如何处理呢???

select /*+mapjoin(x)*/* from log a
left outer join (
 select /*+mapjoin(c)*/ d.*
 from ( select distinct user_id from log ) c join users d on c.user_id = d.user_id
) x
on a.user_id = x.user_id;

将log的user_id这一列单独提取出来,然后再与users进行join,这样就可以把null值进行过滤筛选,起到把表缩小的作用,然后再把log表与刚刚过滤出来的表进行left outer join ,这样不用MapReduce,就能提取到自己想要的数据。

分区表:
创建一个分区,把1张或多张表放入到这个分区中,这样可以在查询时避免进行全表查询,从而提高查询效率,分区表在HDFS上的表现形式是目录。
分桶表:
分桶表是一种更细粒度的数据分配方式,可以对一张表的某一列进行分桶,让该列数据按照哈希取模的方式随机、均匀地分发到各个桶文件中。这样一方面可以提高查询效率,另一方面用于数据的抽样,方便进行数据测试。在处理大规模数据集时,在开发和修改查询的阶段,如果能在数据集的一小部分数据上试运行查询,会带来很多方便。分桶表在HDFS上的表现形式是文件.

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博主会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交流,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。
当在Hive中遇到数据倾斜问题时,可以尝试以下几种解决方法: 1. 调整数据分区:如果数据倾斜是由于某个分区的数据量过大引起的,可以考虑重新设计分区策略。例如,将原本倾斜的分区进行拆分或者将数据均匀地分布到多个分区中,以实现负载均衡。 2. 使用随机数进行分桶:将倾斜的数据进行分桶操作,可以通过使用随机数函数(如rand())为每条数据生成一个随机数,并将数据按照随机数进行分桶。这样可以将倾斜的数据分散到多个桶中,减少数据倾斜的问题。 3. 增加Reduce任务数:通过增加Reduce任务的数量,可以将倾斜的数据均匀地分配到更多的Reduce任务中进行处理,从而减少单个任务的压力。 4. 使用Combiner函数:在MapReduce过程中,使用Combiner函数对Map输出进行局部聚合操作,减少传输给Reduce任务的数据量,从而降低了数据倾斜的影响。 5. 优化查询逻辑:有时候数据倾斜问题是由于查询逻辑不合理导致的,可以对查询语句进行调优,使用更合适的算法或者优化查询条件,以减少数据倾斜的发生。 6. 并行执行多个Job:如果数据倾斜的问题无法通过上述方法解决,可以考虑将任务拆分成多个独立的Job,并行执行。这样可以将倾斜的数据分散到不同的Job中,减轻单个Job的压力。 综合使用上述方法,可以有效地解决Hive中的数据倾斜问题。具体的解决方案需要根据具体情况进行调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值