数仓工具—Hive优化

本文详细探讨了Hive在大数据处理中的优化策略,包括数据过滤、map和reduce任务的优化、JOIN操作的优化、数据倾斜处理、压缩存储以及内存管理和OOM优化等方面。强调了合理设置map和reduce个数、避免小文件过多、利用MapJoin和Bucketing以及处理数据倾斜问题的重要性。通过对Hive参数的调整和优化,可以显著提高Hive查询的性能和效率。
摘要由CSDN通过智能技术生成

数据过滤

行过滤

  • 行处理:在分区剪裁中,当使用外关联时,如果将副表的过滤条件写在Where后面,那么就会先全表关联,之后再过滤

列过滤

  • 列处理:在SELECT中,只拿需要的列,如果有,**尽量使用分区过滤,少用SELECT ***。

map 个数

input目录的文件总个数,input的文件大小,集群设置的文件块大小(目前为128M, 可在hive中通过set dfs.block.size;命令查看到,该参数不能自定义修改);

如果一个任务有很多小文件(远远小于块大小128m),则每个小文件也会被当做一个块,用一个map任务来完成,而一个map任务启动和初始化的时间远远大于逻辑处理的时间,就会造成很大的资源浪费。而且,同时可执行的map数是受限的

是不是保证每个map处理接近128m的文件块,就高枕无忧了,答案也是不一定。比如有一个127m的文件,正常会用一个map去完成,但这个文件只有一个或者两个小字段,却有几千万的记录,如果map处

Hadoop Hive 是构建在 Hadoop 生态系统上的数据仓库基础设施,它提供了一种类似于 SQL 的查询语言,用于处理和分析存储在 Hadoop 分布式文件系统(HDFS)中的大规模数据。 Hive 的基本原理如下: 1. 数据存储:Hive 将数据以表的形式存储在 HDFS 上,数据可以是结构化、半结构化或非结构化的。Hive 表定义包含表的结构(例如列和数据类型)以及数据的存储位置。 2. 元数据管理:Hive 使用元数据来管理表和表之间的关系。元数据包括表的结构、分区信息、表的存储位置等。Hive 的元数据可以使用自带的 Derby 数据库或者外部数据库(如 MySQL)进行存储。 3. 查询优化与执行:Hive 提供了类似于 SQL 的查询语言 HiveQL,用户可以使用 HiveQL 编写查询语句。当用户提交查询时,Hive 会进行查询优化,生成一个逻辑执行计划,并将其转换为 MapReduce 作业或 Tez 任务来执行。 4. 数据转换与计算:Hive 支持用户定义的函数(UDF)和自定义聚合函数(UDAF),用户可以使用这些函数来进行数据转换和计算。Hive 还提供了一些内置函数,用于常见的数据操作和处理。 5. 数据分区与分桶:Hive 支持数据的分区和分桶,可以根据某个列的值将数据划分为多个分区,或者根据某个列的哈希值将数据划分为多个桶。这样可以提高查询性能和数据处理效率。 通过上述原理,Hive 提供了一种方便的方式来处理和分析大规模数据,并且能够与其他 Hadoop 生态系统工具(如Hadoop MapReduce、HBase等)进行无缝集成。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不二人生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值