Hive分区(partition)详解

一、背景

1、在Hive查询中一般会扫描整个表内容,会消耗很多时间做没必要的工作。有时候只需要扫描表中关心的一部分数据,因此建表时引入了partition概念。

2、分区表指的是在创建表时指定的partition的分区空间。

3、如果需要创建有分区的表,需要在create表的时候调用可选参数partitioned by

二、基础语法

1.创建分区表

分区建表分为2种

(1)单分区,也就是说在表文件夹目录下只有一级文件夹目录。
(2)多分区,表文件夹下出现多文件夹嵌套模式。

a、单分区建表语句:

-- 单分区表,按天分区,在表结构中存在id,content,dt三列。
create table day_table (id int, content string)
partitioned by (dt string);

b、双分区建表语句

--双分区表,按天和小时分区,在表结构中新增加了dt和hour两列。
create table day_hour_table (id int, content string)
partitioned by (dt string, hour string);

【注意】:
需要注意的是分区字段不能和表中的字段重复,否则就会报错:

FAILED: SemanticException [Error 10035]: Column repeated in partitioning columns
2.查看分区信息

格式:show partitions table_name;

3.加载数据(load、insert)

(1)load 方式

-- 加载本地文件
LOAD DATA local INPATH '/user/hua/*' INTO TABLE day_table
partition(dt='2010-07- 07');
--加载HDFS文件
LOAD DATA INPATH '/user/pv.txt' INTO TABLE day_hour_table 
PARTITION(dt='2008-08- 08', hour='08');

当数据被加载至表中时,不会对数据进行任何转换。

(2)insert 方式:动态分区

-- 分区插入
insert overwrite table day_table partition(dt='2010-07- 07')
select * from tb_select1 ;

-- 动态分区插入(先设置非严格模式)
set hive.exec.dynamic.partition.mode=nonstrict;
insert overwrite table tb_dy_part partition(sex,name) 
select * from tb_select1;

【注意】
动态分区与静态分区区别就是不指定分区目录,由系统自己选择。
但是动态分区往往需要先开启,并指定非严格模式

-- 开启动态分区(默认开启的话可以不执行此命令)
set hive.exec.dynamic.partition=true;
--使用非严格模式
set hive.exec.dynamic.partition.mode=nostrick;
4.添加分区(表已创建,在此基础上添加分区)

用户可以用 ALTER TABLE ADD PARTITION 来向一个表中增加分区。当分区名是字符串时加引号
格式:

ALTER TABLE table_name ADD partition_spec
[ LOCATION 'location1' ] partition_spec [ LOCATION 'location2' ] ... 
partition_spec: : 
PARTITION (partition_col = partition_col_value,
 partition_col = partiton_col_value, ...)

举例:

ALTER TABLE day_table 
ADD PARTITION (dt='2008-08-08', hour='08') location '/path/pv1.txt' 
PARTITION (dt='2008-08-08', hour='09') location '/path/pv2.txt';
5.删除分区

用户可以用 ALTER TABLE table_name DROP PARTITION 来删除分区。
分区的元数据和数据将被一并删除

ALTER TABLE day_hour_table DROP PARTITION (dt='2008-08-08', hour='09');

【注意】:
对于外表进行drop partition并不会删除hdfs上的文件,并且通过msck repair table table_name同步回hdfs上的分区。

6.查询
SELECT day_table.* FROM day_table WHERE day_table.dt>= '2008-08-08';
7.修复分区

修复分区就是重新同步hdfs上的分区信息。

msck repair table table_name;

二、筛选分区表

我们知道show partitions table_name;语句可以查询分区表中的所有分区。
现在换种思路,我想要筛选出hive中是分区表的表名,如何操作?
这里分两步:

1.shell脚本
# hive 数据库名字
DB=dim

mkdir dim.db
#获取hive建表语句
tables=$(hive -e "use $DB; show tables;")

#生成建表文件(每个表单独一个文件)
for table in $tables;
do
echo "$(hive -e "use $DB;show create table $table;");" >> ./dim.db/$table.hql
done

在这里插入图片描述

2.awk命令
// 筛选出带partition的文件名,然后用 .隔开
grep -i partition * | awk -F '.' '{print $1}'

在这里插入图片描述
在这里插入图片描述
注意:
如果不进入目录而采用./* 需要执行如下指令

grep -i partition ./* 
grep -i partition ./* | awk -F '.' '{print $2}' | awk -F '/' '{print $2}'

在这里插入图片描述
在这里插入图片描述

三、分区原理

1、一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。

可以这样理解,当插入数据的时候指定分区,其实就是新建一个目录或者子目录,或者在原有的目录上添加数据文件。

2、Hive分区又分为单值分区、范围分区。单值分区又分为静态分区和动态分区

详情可以参考博文《静态分区和动态分区》

3、 msck repair修复分区常用于distcp数据之后修复表分区

详情参考《修复分区》

4、建表的完整语法(建分区可参见PARTITIONED BY参数):
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name 
[(col_name data_type [COMMENT col_comment], ...)] 
[COMMENT table_comment] 
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] 
[CLUSTERED BY (col_name, col_name, ...)
 [SORTED BY (col_name [ASC|DESC], ...)] 
INTO num_buckets BUCKETS] 
[ROW FORMAT row_format] [STORED AS file_format]
[LOCATION hdfs_path]

四、总结

1、在 Hive 中,表中的一个 Partition 对应于表下的一个目录,所有的 Partition 的数据都存储在最字集的目录中。

2、总的说来partition就是辅助查询,缩小查询范围,加快数据的检索速度和对数据按照一定的规格和条件进行管理。

hive中关于partition的操作:
hive> create table mp (a string) partitioned by (b string, c string);
OK
Time taken: 0.044 seconds
hive> alter table mp add partition (b='1', c='1');
OK
Time taken: 0.079 seconds
hive> alter table mp add partition (b='1', c='2');
OK
Time taken: 0.052 seconds
hive> alter table mp add partition (b='2', c='2');
OK
Time taken: 0.056 seconds
hive> show partitions mp ;
OK
b=1/c=1
b=1/c=2
b=2/c=2
Time taken: 0.046 seconds
hive> explain extended alter table mp drop partition (b='1');
OK
ABSTRACT SYNTAX TREE:
  (TOK_ALTERTABLE_DROPPARTS mp (TOK_PARTSPEC (TOK_PARTVAL b '1')))

STAGE DEPENDENCIES:
  Stage-0 is a root stage

STAGE PLANS:
  Stage: Stage-0
      Drop Table Operator:
        Drop Table
          table: mp


Time taken: 0.048 seconds
hive> show partitions mp ;
OK
b=1/c=1
b=1/c=2
b=2/c=2
Time taken: 0.044 seconds
hive> alter table mp add   partition ( b='1', c = '3') partition ( b='1' , c='4');
OK
Time taken: 0.168 seconds
hive> show partitions mp ;
OK
b=1/c=1
b=1/c=2
b=1/c=3
b=1/c=4
b=2/c=2
b=2/c=3
Time taken: 0.066 seconds
hive>insert overwrite table mp partition (b='1', c='1') select cnt from tmp_et3 ;

hive>alter table mp add columns (newcol string);

 

location指定目录结构
hive> alter table alter2 
add partition (insertdate='2008-01-01') location '2008/01/01';

hive> alter table alter2 
add partition (insertdate='2008-01-02') location '2008/01/02';
  • 5
    点赞
  • 49
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Hive中,分区Partition)是一种将表数据按照指定的列进行逻辑划分和存储的方式。通过将数据按照某个列的值进行分区,可以提高查询效率和数据管理的灵活性。 具体来说,以下是关于Hive分区的一些概念和特点: 1. 分区列(Partition Column):分区列是表中用于进行分区的列。通常选择具有高基数(Distinct Value)的列作为分区列,以便更好地划分数据并提高查询性能。 2. 分区目录(Partition Directory):每个分区都会对应一个独立的目录,用于存储该分区的数据文件。分区目录的命名通常基于分区列的值,以便更好地组织和管理数据。 3. 动态分区(Dynamic Partition):Hive支持动态分区,在插入数据时根据数据中的列值动态创建和管理分区。这允许在插入数据时自动创建新的分区目录。 4. 静态分区(Static Partition):与动态分区相反,静态分区需要在创建表时明确地定义所有分区,并提前创建对应的分区目录。 5. 多级分区(Multi-level Partitioning):Hive还支持多级分区,即在一个表中使用多个列进行分区。这样可以更细粒度地划分数据,提供更灵活的查询和管理能力。 通过使用表分区,可以使Hive在处理大规模数据时更高效地执行查询操作。例如,当查询仅涉及特定分区时,Hive可以仅加载相关分区的数据,而不必加载整个表的数据。此外,分区还可以帮助优化数据存储和管理,以及提供更灵活的数据查询和过滤功能。 需要注意的是,在设计和使用表分区时,需要考虑数据分布的均匀性、查询模式、分区列的选择等因素,以确保最佳的性能和使用效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

清平乐的技术博客

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值