3.Hive基础—Hive 常用交互命令、其他命令操作、Hive 常见属性配置(日志、库与表信息)、Hive 数据类型

注: 进行完上一章节末尾的注释步骤之后,博主使用 root 身份启动 Hive 报错,后将用户切换为 xqzhao 之后成功启动 Hive


2.8 Hive 常用交互命令

使用 bin/hive -help 查看 Hive 的交互命令。

[xqzhao@hadoop100 hive]$ bin/hive -help

2.8.1 “-e”不进入 hive 的交互窗口执行 sql 语句

[xqzhao@hadoop100 hive]$ bin/hive -e "select id from student;"

2.8.2 “-f”执行脚本中 sql 语句

  • (1) 在 /opt/module/hive/下创建 datas 目录并在 datas 目录下创建 hive.sql 文件
[xqzhao@hadoop100 datas]$ touch hive.sql
  • (2) 文件中写入正确的 sql 语句
select * from test;
  • (3) 执行文件中的 sql 语句
[xqzhao@hadoop100 hive]$ bin/hive -f datas/hive.sql
  • (4) 执行文件中的 sql 语句并将结果写入文件中
[zqzhao@hadoop100 hive]$ bin/hive -f /datas/hive.sql > datas/hive_result.txt

2.9 Hive 其他命令操作

2.9.1 退出 hive 窗口

hive(default)> exit;
hive(default)> quit;
`也可以直接按 Ctrl + C`

2.9.2 在 hive cli 命令窗口中如何查看 hdfs 文件系统

hive(default)> dfs -ls /;

drwxrwx---   - xqzhao supergroup          0 2021-08-18 07:30 /tmp
drwxr-xr-x   - xqzhao supergroup          0 2021-08-18 07:36 /user

2.9.3 查看在 hive 中输入的所有历史命令

  • (1) 进入到当前用户的根目录 /root/home/xqzhao
  • (2) 查看 .hivehistory 文件
[xqzhao@hadoop100 ~]$ cat .hivehistory

2.10 Hive 常见属性配置

2.10.1 Hive 运行日志信息配置

Hivelog 默认存放在 /tmp/xqzhao/hive.log 目录下(当前用户名下)

修改 hivelog 存放日志到 /opt/module/hive/logs

  • (1) 修改 hive-log4j2.properties.template 文件名称为hive-log4j2.properties
[xqzhao@hadoop100 conf]$ pwd 
/opt/module/hive/conf

[xqzhao@hadoop100 conf]$ mv hive-log4j2.properties.template hivelog4j2.properties
  • (2) 在 hive-log4j2.properties 文件中修改 log 存放位置
hive.log.dir=/opt/module/hive/logs

2.10.2 打印 当前库 和 表头

hive-site.xml 中加入如下两个配置:

<!--用于打印 当前库 和 表头-->
<property>
	<name>hive.cli.print.header</name>
	<value>true</value>
</property>

<property>
	<name>hive.cli.print.current.db</name>
	<value>true</value>
</property>

2.10.3 参数配置方式

2.10.3.1 查看当前所有的配置信息
hive> set;
2.10.3.2 参数的配置三种方式
  • (1) 配置文件方式
  • 默认配置文件:hive-default.xml
  • 用户自定义配置文件:hive-site.xml

注意:用户自定义配置会覆盖默认配置。另外,Hive 也会读入 Hadoop 的配置,因为 Hive是作为 Hadoop 的客户端启动的Hive 的配置会覆盖 Hadoop 的配置。配置文件的设定对本机启动的所有 Hive 进程都有效。

  • (2) 命令行参数方式

启动 Hive 时,可以在命令行添加 -hiveconf param=value 来设定参数。
例如:

[atguigu@hadoop103 hive]$ bin/hive -hiveconf hive.cli.print.current.db=false;

注意:仅对本次 hive 启动有效

查看参数设置:

hive (default)> set hive.cli.print.current.db;
  • (3) 参数声明方式

可以在 HQL 中使用 SET 关键字设定参数
例如:

hive (default)> set hive.cli.print.header=false;

注意:仅对本次 hive 启动有效。

查看参数设置:

hive (default)> set hive.cli.print.header;

上述三种设定方式的优先级依次递增。即 配置文件<命令行参数<参数声明。注意某些系统级的参数,例如 log4j 相关的设定,必须用前两种方式设定,因为那些参数的读取在会话建立以前已经完成了。


第3章 Hive 数据类型

3.1 基本数据类型

Hive 数据类型Java 数据类型长度例子
TINYINTbyte1byte有符号整数 20
SMALINTshort2byte 有符号整数20
INTint4byte 有符号整数20
BIGINTlong8byte 有符号整数20
BOOLEANboolean布尔类型,true 或者 falseTRUE FALSE
FLOATfloat单精度浮点数3.14159
DOUBLEdouble双精度浮点数3.14159
STRINGstring字符系列。可以指定字符集‘xqzhao’ “xqzhao”
TIMESTAMP时间类型
BINARY字节数组
  • 对于 HiveString 类型相当于数据库的 Varchar 类型,该类型是一个可变的字符串,不过它不能声明其中最多能存储多少个字符,理论上它可以存储 2GB 的字符数。

3.2 集合数据类型

在这里插入图片描述

  • Hive 有三种复杂数据类型 ARRAYMAPSTRUCTARRAYMAPJava 中的 ArrayMap 类似,而 STRUCTC 语言中的 Struct 类似,它封装了一个命名字段集合,复杂数据类型允许任意层次的嵌套。

3.2.1 案例实操

  • (1) 假设某表有如下一行,我们用 JSON 格式来表示其数据结构。在 Hive 下访问的格式为
{
	"name": "shunshun",
	"friends": ["xqzhao" , "xinge"] , //列表 Array, 
	"children": { 			//键值 Map,
		"xiao song": 18 ,
		"xiaoxiao song": 19
	}
	"address": { 			//结构 Struct,
		"street": "ping le yuan",
		"city": "beijing"
	} 
}
  • (2) 基于上述数据结构,我们在 Hive 里创建对应的表,并导入数据。

创建本地测试文件 test.txt

shunshun,xqzhao_xinge,xiao song:18_xiaoxiao song:19,ping le yuan_beijing
yangyang,caicai_susu,xiao yang:18_xiaoxiao yang:19,chao yang_beijing

注意:MAPSTRUCTARRAY 里的元素间关系都可以用同一个字符表示,这里用“_”。

  • (3) Hive 上创建测试表 test2
create table test2(
# 注意前面不要有空格,以免报错
name string,
friends array<string>,
children map<string, int>,
address struct<street:string, city:string> 
)
row format delimited 
fields terminated by ','
collection items terminated by '_'
map keys terminated by ':'
lines terminated by '\n';

字段解释:

row format delimited fields terminated by ',' ——列分隔符
collection items terminated by '_' ——MAP STRUCT 和 ARRAY 的分隔符(数据分割符号)
map keys terminated by ':' ——MAP 中的 key 与 value 的分隔符
lines terminated by '\n'; ——行分隔符

  • (4) 将 test.txt 上传至 HDFS 文件系统中
[xqzhao@hadoop100 hive]$ hadoop fs -put datas/test.txt /user/hive/warehouse/test2
  • (5) 访问三种集合列里的数据,以下分别是 ARRAYMAPSTRUCT的访问方式
# 访问所有数据
hive (default)> select * from test2;
shunshun	["xqzhao","xinge"]	{"xiao song":18,"xiaoxiao song":19}	{"street":"ping le yuan","city":"beijing"}
yangyang	["caicai","susu"]	{"xiao yang":18,"xiaoxiao yang":19}	{"street":"chao yang","city":"beijing"}

# 访问三种集合列里的数据
hive (default)> select friends[1],children['xiao song'],address.city from test2 where name="shunshun";
_c0	  _c1	city
xinge	18	beijing

3.3 类型转化

Hive 的原子数据类型是可以进行隐式转换的,但是不会进行反向转化。

  • TINYINT 可以自动转换为 INT 类型
  • INT 不可以自动转换为 TINYINT 类型

使用第二种转换会返回错误,除非使用 CAST 操作。

3.3.1 隐式类型转换规则

  • (1) 任何整数类型都可以隐式地转换为一个范围更广的类型,如 TINYINT 可以转换成INTINT 可以转换成 BIGINT
  • (2) 所有整数类型FLOATSTRING 类型都可以隐式地转换成 DOUBLE
  • (3) TINYINTSMALLINTINT 都可以转换为 FLOAT
  • (4) BOOLEAN 类型不可以转换为任何其它的类型。

3.3.2 使用 CAST 操作显示进行数据类型转换

  • 例如 CAST('1' AS INT)将把字符串'1'转换成整数 1
  • 如果强制类型转换失败,表达式返回空值 NULL,如执行 CAST('X' AS INT)
0: jdbc:hive2://hadoop102:10000> select '1'+2, cast('1'as int) + 2;
+------+------+--+
|  _c0 |  _c1 |
+------+------+--+
|  3.0 |    3 |
+------+------+--+

声明:本文是学习时记录的笔记,如有侵权请告知删除!
原视频地址:https://www.bilibili.com/video/BV1EZ4y1G7iL

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

页川叶川

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值