命令 | 作用 | 额外说明 |
show databases; | 查看所有数据库 | |
create database XXX; | 创建XXX数据库 | 创建的数据库,实际是在Hadoop的HDFS文件系统里创建一个目录节点,统一存在:/user/hive/warehouse目录下 |
use XXX; | 进入XXX数据库 | |
show tables; | 查看当前数据库下的所有表 | |
create table XXX(id int,name string) | 创建XXX表,以及相关字段 | hive里,用的是string,不用char和varchar。此外,也是HDFS里的一个目录节点。 |
insert into XXX values(1,'gao') | 向XXX表中插入数据 | 1.HDFS不支持数据的修改和删除,但是在2.0版本后支持了数据追加。实际上,insert into语句执行的是追加操作。2.注意:hive支持查询,行级别的插入。不支持行级别的删除和修改。3.hive的操作实际上是执行一个job的任务,调用的是Hadoop的MR。4.插入完数据之后,发现HDFS表目录节点下,多了一个文件,文件里存了插入的数据,所以,hive存储的数据,是通过HDFS的文件来存储的。 |
select * from XXX | 查看表数据 | 也可以根据字段来查询,比如select id from xxx。 有时会出现这样的情况: 原因是:我们从外部导入的文件的数据格式有误 把数据导入到hive之后,hive并不知道分隔符是什么,所以就不能正确的切分数据。所以显示null。 解决办法:在hive创建表的时候,要指定分隔符,并且这个分隔符要和外部文件里的分割副一致。 |
drop table XXX | 删除表 | |
create table xxx (字段) row format delimited fields terminated by ' '; | 创建表,并指定分隔符 | 分隔符 为‘ ’ 内的格式; |
desc xxx | 查看xxx表结构 | |
create table aaa like xxx | 创建一张aaa表,表结构和xxx表结构相同 | lkie只是复制表结构,不复制数据 |
insert overwrite table aaa select * from xxx | 把xxx表数据插入aaa表中 | insert overwrite 可用于将select 查询的数据插入到指定的表中或指定的目录下 |
alter table aaa rename to bbb | 为表aaa重命名为bbb | |
alter table xxx add columns(字段) | 为表xxx增加一列字段 | |
exit | 退出hive |
当退出hive后,切换到别的目录执行 sh hive 进入。数据库与表等数据就会不同或者没有。
原因:hive可以管理hdfs上的文件,用表的形式来管理文件数据。而表名,表里面有哪些字段,字段类型,哪张表存在哪个数据下等这些表信息,称为hive的元数据信息。
知识点:hive的元数据信息不是存在hdfs上的,而是存在hive自带的derby关系型数据库里的。即hive管理的数据是在hdfs上的,hive的元数据信息是存在关系型数据库里的。
上述问题原因就是由于derby数据库引起的,这个数据库功能不完善,仅用于测试。
derby数据库存储hive元数据的方式:当在bin目录下进入hive时,derby数据会在bin目录下生成一个metastore_db目录,将元数据信息存在这个目录下。当换目录时,derby又会在别的目录下生成一个metastor_db目录,存放元数据。
解决办法:默认使用的derby数据库换成mysql数据库。