Hive的DDL数据定义

库操作

一、创建数据库:
create database [if not exists] database_name
[comment database_comment] //库的说明
[location hdfs_path] //数据库所对应的HDFS上的文件夹的路径
[with dbproperties (property_name=property_value,…)] //增加库的属性

二、查询数据库:
1.显示数据库:
(1)show databases;
(2)过滤显示查询的数据库:show databases like ‘hive_db*’;
2.查看数据库详情
(1)显示数据库信息:desc database hive_db2;
(2)显示数据库详细信息:desc databases extended hive_db2;
在这里插入图片描述
3.删除非空数据库
drop database hive_db2 cascade;
4.为数据库增加属性
alter database student set dbproperties(‘time’=‘sunday’);(增加属性的键值分别用引号括起来)

表操作
一、创建表
建表语法:(各语句之间的顺序不能颠倒,可以省略某些语句)
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name //外部表、不存在则创建
[(col_name data_type [COMMENT col_comment], …)]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], …)]
[CLUSTERED BY (col_name, col_name, …)]
[SORTED BY (col_name [ASC|DESC], …)] INTO num_buckets BUCKETS]
[ROW FORMAT row_format]
DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
[MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
| SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, //序列化和反序列化 property_name=property_value, …)]
[STORED AS file_format]
[LOCATION hdfs_path]
[TBLPROPERTIES (property_name=property_value, …)]
[AS select_statement]
字段解释说明:
(1)CREATE TABLE 创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;用户可以用 IF NOT EXISTS 选项来忽略这个异常。
(2)EXTERNAL关键字可以让用户创建一个外部表,在建表的同时可以指定一个指向实际数据的路径(LOCATION),在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。
(3)COMMENT:为表和列添加注释。
(4)PARTITIONED BY创建分区表
(5)CLUSTERED BY创建分桶表
(6)SORTED BY不常用,对桶中的一个或多个列另外排序
(7)ROW FORMAT
DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
[MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
| SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, property_name=property_value, …)]
用户在建表的时候可以自定义SerDe或者使用自带的SerDe。如果没有指定ROW FORMAT 或者ROW FORMAT DELIMITED,将会使用自带的SerDe。在建表的时候,用户还需要为表指定列,用户在指定表的列的同时也会指定自定义的SerDe,Hive通过SerDe确定表的具体的列的数据。
SerDe是Serialize/Deserilize的简称, hive使用Serde进行行对象的序列与反序列化。
(8)STORED AS指定存储文件类型
常用的存储文件类型:SEQUENCEFILE(二进制序列文件)、TEXTFILE(文本)、RCFILE(列式存储格式文件)
如果文件数据是纯文本,可以使用STORED AS TEXTFILE。如果数据需要压缩,使用 STORED AS SEQUENCEFILE。
(9)LOCATION :指定表在HDFS上的存储位置。
(10)AS:后跟查询语句,根据查询结果创建表。
(11)LIKE允许用户复制现有的表结构,但是不复制数据。
(12)查看表的详细信息:desc formatted 表名;
例子:
create table student1(id int comment ‘xuehao’,name string comment ‘xingming’)
comment ‘xueshengbiao’
stored as textFile
location ‘/user/hive/warehouse/student1’
tblproperties(‘username’=‘diao’);

二、管理表
1.理论
默认创建的表都是所谓的管理表,有时也被称为内部表。因为这种表,Hive会(或多或少地)控制着数据的生命周期。Hive默认情况下会将这些表的数据存储在由配置项hive.metastore.warehouse.dir(例如,/user/hive/warehouse)所定义的目录的子目录下。 当我们删除一个管理表时,Hive也会删除这个表中数据。管理表不适合和其他工具共享数据。
2.案例实操
(1)普通创建表

create table if not exists student2(
id int, name string
)
row format delimited fields terminated by '\t'
stored as textfile
location '/user/hive/warehouse/student2';

(2)根据查询结果创建表(查询的结果会添加到新创建的表中)

create table if not exists student3 as select id, name from student;

(3)根据已经存在的表结构创建表

create table if not exists student4 like student;

(4)查询表的类型

hive (default)> desc formatted student2;
Table Type:             MANAGED_TABLE 

三、外部表
1.理论
因为表是外部表,所以Hive并非认为其完全拥有这份数据。删除该表并不会删除掉这份数据,不过描述表的元数据信息会被删除掉。
2.管理表和外部表的使用场景
每天将收集到的网站日志定期流入HDFS文本文件。在外部表(原始日志表)的基础上做大量的统计分析,用到的中间表、结果表使用内部表存储,数据通过SELECT+INSERT进入内部表。
3.案例实操
分别创建部门和员工外部表,并向表中导入数据。
(1)上传数据到HDFS

hive (default)> dfs -mkdir /student;
hive (default)> dfs -put /opt/module/datas/student.txt /student;

(2)建表语句
创建外部表

hive (default)> create external table stu_external(
id int,
name string)
row format delimited fields terminated by '\t'
location '/student';

(3)查看创建的表

hive (default)> select * from stu_external;
OK
stu_external.id stu_external.name
1001    lisi
1002    wangwu
1003    zhaoliu

(4)查看表格式化数据

hive (default)> desc formatted dept;
Table Type:             EXTERNAL_TABLE

(5)删除外部表

hive (default)> drop table stu_external;

外部表删除后,hdfs中的数据还在,但是metadata中stu_external的元数据已被删除

实际中:先把数据上传到HDFS上的一个文件夹下,在创建外部表的时候通过location关键字指定到该文件夹,这个文件夹就是新建的表在HDFS上的文件夹(该文件夹可以和表不在同一个数据库下面),要注意的是数据的格式要与表的结构相对应,否则无法解析;后续陆续在该文件夹下上传数据文件,通过表查询时会自动更新数据信息。

四、管理表与外部表的互相转换
1.查询表的类型
hive (default)> desc formatted student2;
Table Type: MANAGED_TABLE
2.修改内部表student2为外部表
alter table student2 set tblproperties(‘EXTERNAL’=‘TRUE’);
3.查询表的类型
hive (default)> desc formatted student2;
Table Type: EXTERNAL_TABLE
4.修改外部表student2为内部表
alter table student2 set tblproperties(‘EXTERNAL’=‘FALSE’);
5.查询表的类型
hive (default)> desc formatted student2;
Table Type: MANAGED_TABLE

注意:(‘EXTERNAL’=‘TRUE’)和(‘EXTERNAL’=‘FALSE’)为固定写法,区分大小写!

五、分区表:目的是为了提高查询效率
分区表实际上就是对应一个HDFS文件系统上的独立的文件夹,该文件夹下是该分区所有的数据文件。Hive中的分区就是分目录,把一个大的数据集根据业务需要分割成小的数据集。在查询时通过WHERE子句中的表达式选择查询所需要的指定的分区,这样的查询效率会提高很多。分区字段不能和表中的字段一样,所以分区字段也叫做伪列。
在这里插入图片描述
创建表语法:
create table student(id int,name string) partitioned by (month string) row format delimited fields terminated by ‘\t’;分区字段不能和表中的字段一样,所以分区字段也叫做伪列。
加载数据到分区表:
load data local inpath ‘/opt/module/datas/student.txt’ into table student partition(month=‘11’);分区表加载数据时,必须指定分区。
查询分区表中的数据:
单分区查询:
select * from student where month=‘11’;
多分区查询:
select * from student where month=‘11’
union
select * from student where month=‘12’;
增加分区:
增加单个分区:
alter table student add partition(month=‘10’);
增加多个分区:
alter table student add partition(month=‘9’) partition(month=‘8’); //增加多个分区,partition之间什么都不加
删除分区:
删除单个分区:
alter table student drop partition(month=‘10’);
删除多个分区:
alter table student drop partition(month=‘10’),partition(month=‘9’); //删除多个分区,partition之间加“,”
查看分区表有多少个分区:
show partitions student;
查看分区表结构:
desc formatted student;

二级分区表
创建二级分区表:
create table student(id int ,name string)
partitioned by (month string,day string)
row format delimited fields terminated by ‘\t’;
加载数据到二级分区表中:(有几个分区字段,就必须加几个条件)
load data local inpath ‘/opt/module/datas/student.txt’ into table student partition(month=‘7’,day=‘12’);
查询二级分区数据:
select * from student where month=‘7’,day=‘12’;(select * from student where month=‘7’ and day=‘12’;也可以只写month=‘7’或者只写day=‘12’,这样查出来的分别是month=‘7’的所有天的数据;或者day=‘12’的所有月份的数据)
把数据直接上传到分区目录上,让分区表和数据产生关联的三种方式:
上传数据:0: jdbc:hive2://hadoop100:10000>!sh hadoop fs -put /opt/module/datas/student.txt /user/hive/warehouse/student/student08
(1)上传数据后修复
(2)上传数据后增加分区
(3)创建文件夹后load数据到分区

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值