目录
前期工作
需提前启动服务端(hiveserver2)和客户端(beeline -u 'jdbc:hive2://192.168.67.110:10000' -n root),即可实现hive的操作。
1.Hive对库的操作
1)show databases;
2)create database t1;
3)show databases;
4)创建带属性的库并查看数据库的详细信息
创建:create database if not exists t3 with dbproperties('creator'='hadoop','date'='2019-01-01');
查看:desc database extended t3;
5)删除库
drop database if exists t3 cascade;
6)切换数据库并查看当前正在使用哪个数据库
use t2;
2.Hive对表的操作
内部表:
1)创建内部表 ,并在hdfs上找到内部表的存储路径 。
create table worker_1(id int,name string,salary bigint,addr string)
row format delimited
fields terminated by ‘,’;
外部表:
2)创建外部表 ,在hdfs上的指定路径查询外部表时发现,只是一张空表,没有任何数据
create external table worker_2(id int,name string,salary bigint,addr string)
row format delimited
fields terminated by ‘,’
location ‘/worker’;
导入:
3)将本地磁盘上的文件导入表中。