hive分区对应hadoop_Hive分区

注意:必须在表定义时指定对应的partition字段。

一.指定分区

1.单分区

建表语句:create table day_table(id int, content string) partitioned by (dt string);

单分区表,按天分区,在表结构中存在id,content,dt三列。

以dt为文件夹区分。

2.双分区

建表语句:create table day_hour_table(id int,content string) partitioned by (dt string, hour string);

双分区表,按天和小时分区,在表结构中新增加了dt和hour两列。

先以dt为文件夹,再以hour子文件区分。

二.添加分区

添加语句:ALTER TABLE table_name ADD [IF NOT EXISTS] PARTITION partition_spec [LOCATION 'location'] partition_spec [LOCATION 'location2']...

例子:ALTER TABLE day_table ADD PARTITION (dt='2019-03-27',hour='20')

三.删除分区

删除语句:ALTER TABLE table_name DROP partition_spec,partition_spec...

注意:内部表中对应分区的元数据和数据都将被一并删除。

例子:ALTER TABLE day_hour_table DROP PARTITION (dt='2019-03-27',hour='21');

四.指定分区添加数据

添加语句:LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION(partcol=val1,partcol2=val2...)]

例子:

1.LOAD DATA INPATH '/usr/pv.txt' INTO TABLE day_hour_table PARTITION (dt='2019-03-27', hour='21');

2.LOAD DATA local INPATH '/user/zhen/*' INTO TABLE day_hour partition(dt='2019-03-27');

注意:当数据被加载至表中时,不会对数据进行任何转换。LOAD操作只是将数据复制至Hive表对应的位置上。数据加载是会在表下自动创建一个目录。

五.查询

查询语句:SELECT day_table.* FROM day_table WHERE day_table.dt>='2019-03-27';

注意:分区表的意义在于优化查询。查询时尽量利用分区字段。如果不使用分区字段,就会全表扫描。

六.查看表分区信息

语句:SHOW PARTITIONS day_hour_table;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值