我们本章进行hive的优化学习分区和分桶。
hive分区
背景
1、在Hive Select查询中一般会扫描整个表内容,会消耗很多时间做没必要的工作。有时候只需要扫描表中关心的一部分数据,因此建表时引入了partition概念。
2、分区表指的是在创建表时指定的partition的分区空间。
3、如果需要创建有分区的表,需要在create表的时候调用可选参数partitioned by,详见表创建的语法结构。
技术细节
1、一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。
2、表和列名不区分大小写。
3、分区是以字段的形式在表结构中存在,通过describe table命令可以查看到字段存在,但是该字段不存放实际的数据内容,仅仅是分区的表示。
总结
1、在 Hive 中,表中的一个 Partition 对应于表下的一个目录,所有的 Partition 的数据都存储在最字集的目录中。
2、总的说来partition就是辅助查询,缩小查询范围,加快数据的检索速度和对数据按照一定的规格和条件进行管理。
3、Hive分区更方便于数据管理,常见的有时间分区和业务分区。
建表
分区建表分为2种,一种是单分区,也就是说在表文件夹目录下只有一级文件夹目录。另外一种是多分区,表文件夹下出现多文件夹嵌套模式。
a、单分区建表语句:create table day_table (id int, content string) partitioned by (dt string);单分区表,按天分区,在表结构中存在id,content,dt三列。
b、双分区建表语句:create table day_hour_table (id int, content string) partitioned by (dt string, hour string);双分区表,按天和小时分区,在表结构中新增加了dt和hour两列。
注意,创建时分区字段不能和表中的字段重复。
表添加分区
表已创建,在此基础上添加分区:
用户可以用 ALTER TABLE ADD PARTITION 来向一个表中增加分区。当分区名是字符串时加引号。例:
ALTER TABLE day_table ADD PARTITION (dt=’2008-08-08’, hour=’08’) location ‘/path/pv1.txt’ PARTITION (dt=’2008-08-08’, hour=’09’) location ‘/path/pv2.txt’;
一次增加一个分区
alter table testljb add partition (age=2);
一次增加多个分区
alter table testljb add partition(age=3) partition(age=4);
注意,错误的多分区添加方式
alter table testljb add partition(age=5,age=6);
如果多个分区名不同时才可以使用格式:
alter table testljb add partition(age=1,sex=’male’);
删除分区
用户可以用 ALTER TABLE DROP PARTITION 来删除分区。分区的元数据和数据将被一并删除。例:
alter table testljb drop partition(age=1);
加载数据进分区表
例:
LOAD DATA INPATH ‘/user/pv.txt’ INTO TABLE day_hour_table PARTITION(dt=’2008-08-08’, hour=’08’); LOAD DATA local INPATH ‘/user/hua/*’ INTO TABLE day_hour partition(dt=’2010-07-07’);
当数据被加载至表中时,不会对数据进行任何转换。Load操作只是将数据复制至Hive表对应的位置。数据加载时在表下自动创建一个目录,文件存放在该分区下。
基于分区的查询
SELECT day_table.* FROM day_table WHERE day_table.dt>= ‘2008-08-08’;
查看分区语句
show partitions table_name;
修复分区
修复分区就是重新同步hdfs上的分区信息。
msck repair table table_name;
hive分桶
对于每一个表(table)或者分区,Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。
Hive是针对某一列进行分桶。
Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中。
好处
获得更高的查询处理效率。
使取样(sampling)更高效
创建带桶的table
首先,我们来看如何告诉Hive—个表应该被划分成桶。我们使用CLUSTERED BY 子句来指定划分桶所用的列和要划分的桶的个数:
CREATE TABLE bucketed_user (id INT) name STRING) CLUSTERED BY (id) INTO 4 BUCKETS;
在这里,我们使用用户ID来确定如何划分桶(Hive使用对值进行哈希并将结果除 以桶的个数取余数。这样,任何一桶里都会有一个随机的用户集合。
声明一个表使其使用排序桶
CREATE TABLE bucketed_users (id INT, name STRING)
CLUSTERED BY (id) SORTED BY (id ASC) INTO 4 BUCKETS;
设置自动分桶
set hive.enforce.bucketing = true
对桶中的数据进行采样
SELECT * FROM bucketed_users TABLESAMPLE(BUCKET 1 OUT OF 4 ON id);
桶的个数从1开始计数。因此,前面的查询从4个桶的第一个中获取所有的用户。 对于一个大规模的、均匀分布的数据集,这会返回表中约四分之一的数据行。我们 也可以用其他比例对若干个桶进行取样(因为取样并不是一个精确的操作,因此这个 比例不一定要是桶数的整数倍)。
查询一半返回的桶数
SELECT * FROM bucketed_users TABLESAMPLE(BUCKET 1 OUT OF 2 ON id);
未划分数据取样
使用rand()函数对没有划分成桶的表进行取样,即使只需要读取很 小一部分样本,也要扫描整个输入数据集
SELECT * FROM users TABLESAMPLE(BUCKET 1 OUT OF 4 ON rand());
注意
目前不支持对已有的表进行分桶,只能新建带有分桶的表然后 把数据导入。
例如:
下面语句建一个分区分桶表user_cid_acclevel,分桶键为cid(分三个桶),分区键为acc_level。
CREATE TABLE user_cid_acclevel (name STRING, cid STRING) PARTITIONED BY (acc_level STRING) CLUSTERED BY (cid) INTO 3 BUCKETS;
设置环境变量(必须设置这个数据,hive才会按照你设置的桶的个数去生成数据):
>set hive.enforce.bucketing = true;
插入数据:
INSERT OVERWRITE TABLE user_cid_acclevel PARTITION (acc_level = 'A') SELECT name, citizen_id FROM user_info WHERE acc_level = 'A';
从Hive 0.6.0开始,对以前的版本,必须把mapred.reduce .tasks设为表中要填 充的桶的个数。如果桶是排序的,还需要把hive.enforce.sorting设为true。
显式原始文件时,因为分隔字符是一个不能打印的控制字符,因此字段都挤在一起。