hive 分区的超级详细解释

一、什么是分区,以及为什么分区?

1、分区是储存位置的物理区别,表实质上被分割了;而group by等只是对表进行查询时的非显示区别,实质表并未被分割。

2、在Hive Select查询中一般会扫描整个表内容,会消耗很多时间做没必要的工作。有时候只需要扫描表中关心的一部分数据,因此建表时引入了partition概念【注意partition与group by distribute by的区别】。

3、分区表指的是在创建表时指定的partition的分区空间。

4、如果需要创建有分区的表,需要在create表的时候调用可选参数partitioned by,详见表创建的语法结构。

二、技术细节

1、一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。

2、表和列名不区分大小写。

3、分区是以字段的形式在表结构中存在,通过describe table命令可以查看到字段存在,但是该字段不存放实际的数据内容,仅仅是分区的表示。

4、建表的语法(建分区可参见PARTITIONED BY参数):

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name [(col_name data_type [COMMENT col_comment], ...)] 
[COMMENT table_comment] 
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] 
[CLUSTERED BY (col_name, col_name, ...)
[SORTED BY (col_name [ASC|DESC], ...)] 
INTO num_buckets BUCKETS] 
[ROW FORMAT row_format] 
[STORED AS file_format] 
[LOCATION hdfs_path]

5、分区建表分为2种,一种是单分区,也就是说在表文件夹目录下只有一级文件夹目录。另外一种是多分区,表文件夹下出现多文件夹嵌套模式。

a、单分区建表语句:create table day_table (id int, content string) partitioned by (dt string);单分区表,按天分区,在表结构中存在id,content,dt三列。
b、双分区建表语句:create table day_hour_table (id int, content string) partitioned by (dt string, hour string);双分区表,按天和小时分区,在表结构中新增加了dt和hour两列。

6、添加分区表语法(表已创建,在此基础上添加分区):

ALTER TABLE table_name 
ADD partition_spec [ LOCATION 'location1' ] 
partition_spec [ LOCATION 'location2' ] 
... 
partition_spec: : 
PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, 
...)

用户可以用 ALTER TABLE ADD PARTITION 来向一个表中增加分区。当分区名是字符串时加引号。例:

ALTER TABLE day_table ADD PARTITION 
(dt='2008-08-08', hour='08') location '/path/pv1.txt' PARTITION (dt='2008-08-08', hour='09') location '/path/pv2.txt';

7、删除分区语法:

ALTER TABLE table_name DROP partition_spec, partition_spec,…
用户可以用 ALTER TABLE DROP PARTITION 来删除分区。分区的元数据和数据将被一并删除。例:

ALTER TABLE day_hour_table DROP PARTITION (dt='2008-08-08', hour='09');

8、数据加载进分区表中语法:

LOAD DATA [LOCAL] INPATH ‘filepath’ [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 …)]
例:

LOAD DATA INPATH '/user/pv.txt' INTO TABLE day_hour_table PARTITION(dt='2008-08- 08', hour='08'); LOAD DATA local INPATH '/user/hua/*' INTO TABLE day_hour partition(dt='2010-07- 07');

当数据被加载至表中时,不会对数据进行任何转换。Load操作只是将数据复制至Hive表对应的位置。数据加载时在表下自动创建一个目录,文件存放在该分区下。

9、基于分区的查询的语句:

SELECT day_table.* FROM day_table WHERE day_table.dt>= '2008-08-08';

10、查看分区语句:

show partitions day_hour_table; 
OK 
dt=2008-08-08/hour=08 
dt=2008-08-08/hour=09 
dt=2008-08-09/hour=09

三、总结

1、在 Hive 中,表中的一个 Partition 对应于表下的一个目录,所有的 Partition 的数据都存储在最字集的目录中。

2、总的说来partition就是辅助查询,缩小查询范围,加快数据的检索速度和对数据按照一定的规格和条件进行管理。

hive中关于partition的操作:

create table mp 
(a string) 
partitioned by (b string, c string);

alter table mp add partition (b='1', c='1');

alter table mp add partition (b='1', c='2');

alter table mp add partition (b='2', c='2');

show partitions mp ;
b=1/c=1
b=1/c=2
b=2/c=2

explain extended alter table mp 
drop partition (b='1');

ABSTRACT SYNTAX TREE:
  (TOK_ALTERTABLE_DROPPARTS mp (TOK_PARTSPEC (TOK_PARTVAL b '1')))
STAGE DEPENDENCIES:
  Stage-0 is a root stage
STAGE PLANS:
  Stage: Stage-0
      Drop Table Operator:
        Drop Table
          table: mp

alter table mp drop partition (b='1');
FAILED: Error in metadata: table is partitioned but partition spec is not specified or tab: {b=1}
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

show partitions mp ;
b=1/c=1
b=1/c=2
b=2/c=2

alter table mp add partition ( b='1', c = '3')
partition ( b='1' , c='4');

show partitions mp ;
b=1/c=1
b=1/c=2
b=1/c=3
b=1/c=4
b=2/c=2
b=2/c=3

insert overwrite table mp 
partition (b='1', c='1') 
select cnt from tmp_et3 ;

alter table mp add columns (newcol string);

location指定目录结构
alter table alter2 add partition (insertdate='2008-01-01') location '2008/01/01';
alter table alter2 add partition (insertdate='2008-01-02') location '2008/01/02';

四 修改表添加分区(add partition)和 加载数据时添加分区 的区别

假定有hive中有两个表empl_inn(管理表)和empl_ext(外部表),他们都有分区(logdate string
1.对于外部表 empl_ext

 alter table empl_ext add partition (logdate=‘2015-02-26’) location ‘hdfs://nameservice1/vod_pb/’;   

执行添加分区时 vod_pb/ 文件夹下的数据不会被移动。并且没有分区目录logdate=2015-02-26

 alter table empl_ext drop partition (logdate=‘2015-02-26’);  

执行删除分区目录时vod_pb/ 下的数据不会被删除

load data inpath 'hdfs://nameservice1/vod_pb/' overwrite into table empl_ext   partition(logdate='2015-02-26');   

执行加载数据添加分区时 vod_pb/ 文件夹下的数据会被移动,并创建分区目录logdate=2015-02-26,数据移动到此目录下

alter table empl_ext drop partition (logdate=‘2015-02-26’);   

执行删除分区目录时,已经创建logdate=2015-02-26分区目录不会被删除,其文件夹下的数据也不会被删除;、

2.对于内部表 empl_inn

 alter table empl_inn add partition (logdate=‘2015-02-26’) location ‘hdfs://nameservice1/vod_pb/’;      

执行添加分区时 vod_pb/ 文件夹下的数据不会被移动。并且没有分区目录logdate=2015-02-26

 alter table empl_inn drop partition (logdate=‘2015-02-26’); 

执行删除分区时vod_pb/ 下的数据会被删除并且连同vod_pb/文件夹也会被删除

 load data inpath 'hdfs://nameservice1/vod_pb/' overwrite into table empl_inn   partition(logdate='2015-02-26');    

执行加载数据添加分区时 vod_pb/文件夹下的数据会被移动,并创建分区目录logdate=2015-02-26,数据移动到此目录下

alter table empl_inn drop partition (logdate=‘2015-02-26’); 

执行删除分区目录时,已经创建logdate=2015-02-26/分区目录会被删除,其文件夹下的数据随之会被删除;、

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值