进入beeline客户端:beeline -u jdbc:hive2://hadoop105:10000 -n atguigu
退出beeline客户端:!quit
创建:create
修改:alter
查询:select
插入:insert into
删除:drop
函数
case then (类似于java中的swich case)
行转列相关函数:
contcat(string A/col,string B/col…)
concat_ws (分隔符,str1,str2…) 分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间
collect_set(col) 只接受基本函数,主要的作用是去重汇总,产生array类型字段。
列转行相关函数:
explode(col) 将hive一列中复杂的array或者map结构拆分成多行
lateral view --LATERAL VIEW udtf(expression) tableAlias AS columnAlias
用于和split、explode等UDTF一起使用,可将一列数据拆分成多行数据,在此基础上可以对拆分后的数据进行聚合
select
m.movie,
tbl.cate
from
movie_info m
lateral view --将下面的cate列和上面的聚合(粘合剂)
explode(split(category, ",")) tbl as cate;
–将category列炸开(以’,'为标准拆分),并命名为tbl表的cate列(因为该表只有cate这一列)
开窗函数:
Rank:
内外部表:
查询表的类型:desc formatted table
-
- 修改内部表xxx为外部表alter table xxx set tblproperties('EXTERNAL'='TRUE'); - 修改外部表xxx为内部表alter table xxx set tblproperties('EXTERNAL'='FALSE');
(‘EXTERNAL’=‘TRUE’)和(‘EXTERNAL’=‘FALSE’)为固定写法,区分大小写
(true为外部表,false为内部表)