本文目录如下:
注: 进行完上一章节末尾的注释步骤之后,博主使用
root
身份启动Hive
报错,后将用户切换为xqzhao
之后成功启动Hive
。
2.8 Hive 常用交互命令
使用 bin/hive -help
查看 Hive
的交互命令。
[xqzhao@hadoop100 hive]$ bin/hive -help
2.8.1 “-e
”不进入 hive
的交互窗口执行 sql
语句
[xqzhao@hadoop100 hive]$ bin/hive -e "select id from student;"
2.8.2 “-f
”执行脚本中 sql
语句
- (1) 在
/opt/module/hive/
下创建 datas 目录并在 datas 目录下创建 hive.sql 文件
[xqzhao@hadoop100 datas]$ touch hive.sql
- (2) 文件中写入正确的
sql
语句
select * from test;
- (3) 执行文件中的 sql 语句
[xqzhao@hadoop100 hive]$ bin/hive -f datas/hive.sql
- (4) 执行文件中的 sql 语句并将结果写入文件中
[zqzhao@hadoop100 hive]$ bin/hive -f /datas/hive.sql > datas/hive_result.txt
2.9 Hive 其他命令操作
2.9.1 退出 hive
窗口
hive(default)> exit;
hive(default)> quit;
`也可以直接按 Ctrl + C`
2.9.2 在 hive cli
命令窗口中如何查看 hdfs
文件系统
hive(default)> dfs -ls /;
drwxrwx--- - xqzhao supergroup 0 2021-08-18 07:30 /tmp
drwxr-xr-x - xqzhao supergroup 0 2021-08-18 07:36 /user
2.9.3 查看在 hive 中输入的所有历史命令
- (1) 进入到当前用户的根目录
/root
或/home/xqzhao
- (2) 查看
.hivehistory
文件
[xqzhao@hadoop100 ~]$ cat .hivehistory
2.10 Hive 常见属性配置
2.10.1 Hive 运行日志信息配置
Hive
的log
默认存放在/tmp/xqzhao/hive.log
目录下(当前用户名下)
修改 hive
的 log
存放日志到 /opt/module/hive/logs
- (1) 修改
hive-log4j2.properties.template
文件名称为hive-log4j2.properties
[xqzhao@hadoop100 conf]$ pwd
/opt/module/hive/conf
[xqzhao@hadoop100 conf]$ mv hive-log4j2.properties.template hivelog4j2.properties
- (2) 在
hive-log4j2.properties
文件中修改log
存放位置
hive.log.dir=/opt/module/hive/logs
2.10.2 打印 当前库 和 表头
在 hive-site.xml
中加入如下两个配置:
<!--用于打印 当前库 和 表头-->
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
2.10.3 参数配置方式
2.10.3.1 查看当前所有的配置信息
hive> set;
2.10.3.2 参数的配置三种方式
- (1) 配置文件方式
- 默认配置文件:
hive-default.xml
- 用户自定义配置文件:
hive-site.xml
注意:
用户自定义配置会覆盖默认配置
。另外,Hive
也会读入Hadoop
的配置,因为 Hive是作为 Hadoop 的客户端启动的
,Hive
的配置会覆盖Hadoop
的配置。配置文件的设定对本机启动的所有Hive
进程都有效。
- (2) 命令行参数方式
启动 Hive
时,可以在命令行添加 -hiveconf param=value
来设定参数。
例如:
[atguigu@hadoop103 hive]$ bin/hive -hiveconf hive.cli.print.current.db=false;
注意:仅对本次 hive 启动有效
查看参数设置:
hive (default)> set hive.cli.print.current.db;
- (3) 参数声明方式
可以在 HQL
中使用 SET
关键字设定参数
例如:
hive (default)> set hive.cli.print.header=false;
注意:仅对本次 hive 启动有效。
查看参数设置:
hive (default)> set hive.cli.print.header;
上述三种设定方式的优先级依次递增。即
配置文件
<命令行参数
<参数声明
。注意某些系统级的参数,例如log4j
相关的设定,必须用前两种方式设定,因为那些参数的读取在会话建立以前已经完成了。
第3章 Hive 数据类型
3.1 基本数据类型
Hive 数据类型 | Java 数据类型 | 长度 | 例子 |
---|---|---|---|
TINYINT | byte | 1byte有符号整数 20 | |
SMALINT | short | 2byte 有符号整数 | 20 |
INT | int | 4byte 有符号整数 | 20 |
BIGINT | long | 8byte 有符号整数 | 20 |
BOOLEAN | boolean | 布尔类型,true 或者 false | TRUE FALSE |
FLOAT | float | 单精度浮点数 | 3.14159 |
DOUBLE | double | 双精度浮点数 | 3.14159 |
STRING | string | 字符系列。可以指定字符集 | ‘xqzhao’ “xqzhao” |
TIMESTAMP | 时间类型 | ||
BINARY | 字节数组 |
- 对于
Hive
的String
类型相当于数据库的Varchar
类型,该类型是一个可变的字符串,不过它不能声明其中最多能存储多少个字符,理论上它可以存储2GB
的字符数。
3.2 集合数据类型
Hive
有三种复杂数据类型ARRAY
、MAP
和STRUCT
。ARRAY
和MAP
与Java
中的Array
和Map
类似,而STRUCT
与C
语言中的Struct
类似,它封装了一个命名字段集合,复杂数据类型允许任意层次的嵌套。
3.2.1 案例实操
- (1) 假设某表有如下一行,我们用
JSON
格式来表示其数据结构。在Hive
下访问的格式为
{
"name": "shunshun",
"friends": ["xqzhao" , "xinge"] , //列表 Array,
"children": { //键值 Map,
"xiao song": 18 ,
"xiaoxiao song": 19
}
"address": { //结构 Struct,
"street": "ping le yuan",
"city": "beijing"
}
}
- (2) 基于上述数据结构,我们在
Hive
里创建对应的表,并导入数据。
创建本地测试文件 test.txt
shunshun,xqzhao_xinge,xiao song:18_xiaoxiao song:19,ping le yuan_beijing
yangyang,caicai_susu,xiao yang:18_xiaoxiao yang:19,chao yang_beijing
注意:MAP
,STRUCT
和 ARRAY
里的元素间关系都可以用同一个字符表示,这里用“_
”。
- (3)
Hive
上创建测试表test2
create table test2(
# 注意前面不要有空格,以免报错
name string,
friends array<string>,
children map<string, int>,
address struct<street:string, city:string>
)
row format delimited
fields terminated by ','
collection items terminated by '_'
map keys terminated by ':'
lines terminated by '\n';
字段解释:
row format delimited fields terminated by ','
——列分隔符
collection items terminated by '_'
——MAP STRUCT 和 ARRAY 的分隔符(数据分割符号)
map keys terminated by ':'
——MAP 中的 key 与 value 的分隔符
lines terminated by '\n';
——行分隔符
- (4) 将
test.txt
上传至HDFS
文件系统中
[xqzhao@hadoop100 hive]$ hadoop fs -put datas/test.txt /user/hive/warehouse/test2
- (5) 访问三种集合列里的数据,以下分别是
ARRAY
,MAP
,STRUCT
的访问方式
# 访问所有数据
hive (default)> select * from test2;
shunshun ["xqzhao","xinge"] {"xiao song":18,"xiaoxiao song":19} {"street":"ping le yuan","city":"beijing"}
yangyang ["caicai","susu"] {"xiao yang":18,"xiaoxiao yang":19} {"street":"chao yang","city":"beijing"}
# 访问三种集合列里的数据
hive (default)> select friends[1],children['xiao song'],address.city from test2 where name="shunshun";
_c0 _c1 city
xinge 18 beijing
3.3 类型转化
Hive
的原子数据类型是可以进行隐式转换的,但是不会进行反向转化。
TINYINT
可以自动转换为 INT 类型INT
不可以自动转换为TINYINT
类型使用第二种转换会返回错误,除非使用
CAST
操作。
3.3.1 隐式类型转换规则
- (1) 任何整数类型都可以隐式地转换为一个范围更广的类型,如
TINYINT
可以转换成INT
,INT
可以转换成BIGINT
。 - (2) 所有整数类型、
FLOAT
和STRING
类型都可以隐式地转换成DOUBLE
。 - (3)
TINYINT
、SMALLINT
、INT
都可以转换为FLOAT
。 - (4)
BOOLEAN
类型不可以转换为任何其它的类型。
3.3.2 使用 CAST 操作显示进行数据类型转换
- 例如
CAST('1' AS INT)
将把字符串'1'
转换成整数1
; - 如果强制类型转换失败,表达式返回空值
NULL
,如执行CAST('X' AS INT)
。
0: jdbc:hive2://hadoop102:10000> select '1'+2, cast('1'as int) + 2;
+------+------+--+
| _c0 | _c1 |
+------+------+--+
| 3.0 | 3 |
+------+------+--+
声明:本文是学习时记录的笔记,如有侵权请告知删除!
原视频地址:https://www.bilibili.com/video/BV1EZ4y1G7iL