大数据处理技术导论(6) | Datawhale组队学习46期


项目地址 https://github.com/datawhalechina/juicy-bigdata,感谢项目团队的付出。
本次主要学习 hive 相关内容。

1. hive 概述

hive 是建立在 hadoop 之上的数仓工具。它将 hadoop 上存储的结构化、半结构化数据文件映射为表,使得可以通过 HiveQL(HQL)对存储于 hadoop 上的大型数据文件进行访问与分析。

hive 本身并不存储数据,它只是提供了用户与 hadoop 系统文件之前的连接通道。其核心是将 HQL 翻译成 MapReduce 任务,然后提交至 hadoop 集群中进行执行,并给用户返回处理结果。

hive 大幅降低了普通业务人员或者说数据开发(不了解 java 编程)进行大数据分析的门槛。

hive 适合对海量数据进行离线分析,不适合对数据进行实时处理。前边学过的 HBase 适合数据的实时处理。

2. hive 与传统关系型数据库的对比

在使用方面,hive 和传统关系型数据库基本相同,由于其文件系统为 HDFS,hive 与传统关系型数据库还是由不少区别,详见下表对比情况。

对比内容Hive传统关系型数据库
数据存储HDFS本地文件系统
索引基本不支持支持复杂索引
分区支持支持
执行引擎MapReduce、Tez、Spark自身的执行引擎
执行延迟高(T+1)
扩展性有限
数据规模

3. hive 数据类型

hive 支持以下几种数据类型:

大类类型
Integers(整型)TINYINT:1字节的有符号整数;
SMALLINT:2字节的有符号整数;
INT:4字节的有符号整数;
BIGINT:8字节的有符号整数
Boolean(布尔型)BOOLEAN:TRUE/FALSE
Floating point numbers(浮点型)FLOAT:单精度浮点型;
DOUBLE:双精度浮点型
Fixed point numbers(定点数)DECIMAL:用户自定义精度定点数,比如 DECIMAL(7,2)
String types(字符串)STRING:指定字符集的字符序列;
VARCHAR:具有最大长度限制的字符序列;
CHAR:固定长度的字符序列
Date and time types(日期时间类型)TIMESTAMP:时间戳;
TIMESTAMP WITH LOCAL TIME ZONE:本地时区时间戳,纳秒精度;
DATE:日期类型
Binary types(二进制类型)BINARY:字节序列

4. hive 数据模型

自上而下,hive 分为库、表、分区、分桶 4种数据模型。


  • hive 数据库中,默认的 database 是 default,实际应用中一般不适用 default 数据库而是新建 database。


  • hive 本身并不存储数据,hive 表对应的数据都是存储在 HDFS 上,hive 表相关的元数据存储于 hive 内置的 Derby (仅支持一个实例,极少使用)或者第三方的 MySQL (运行多个实例同时访问)。
    hive 表分为内部表和外部表。

    • 内部表的表创建过程和数据加载过程是分离的,加载数据过程中,数据会被移动至相应的数仓目录下(HDFS 上的 A 位置移动至 HDFS 上的 B 位置),对于 hive 内部表数据的访问都是对数仓目录进行操作。删除 hive 内部表也是真正的删除数据,要慎重哦~

    • 外部表的表创建过程和数据加载过程是同一个过程,hive 外部表的创建只是在元数据里添加了映射记录,对于 hive 外部表的访问还是读取 HDFS 上的内容。删除 hive 外部表时,也只是删除了该表的元数据,而并未真正删除数据。

    hive 内部表和外部表的差异总结如下:

对比内容内部表外部表
数据存储位置内部表数据存储的位置由 hive-site.xml 中的hive.Metastore.warehouse.dir参数指定,
默认情况下,表的数据存储在HDFS/user/hive/warehouse/数据库名.db/表名/目录下
外部表数据的存储位置创建表时由Location参数指定
导入数据在导入数据到内部表,内部表将数据移动到自己的数据仓库目录下,
数据的生命周期由Hive来进行管理
外部表不会将数据移动到自己的数据仓库目录下,
只是在元数据中存储了数据的位置
删除表删除元数据(metadata)和 HDFS 数据文件只删除元数据(metadata)
安全性低(容易误删数据)
  • 分区
    hive 分区就是将数据存放于不同的目录,查询时命中分区,能避免全表扫描,提高查询效率。
  • 分桶
    可以在分区的基础上继续进行分桶,所谓分桶,就是将分区内数据以某个字段的 hash 值进行分组,将数据文件拆分为若干个小文件。优点是优化 join 查询和方便抽样查询,缺点是会生成很多小文件。

5. hive 实战

由于我的 hive 运行环境之前已经部署好了,这里不再赘述,详情可以参考 hive安装部署和管理

好久不用了,试了下,居然报错了

FAILED: HiveException java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient

在这里插入图片描述
报错的意思是说无法实例化 hive 元数据客户端,重新初始化之后也是不行。最终通过如下命令解决

cd /opt/module/hive/bin
./hive --service metastore &

./hive

该命令的含义是在后台启动了 hive 元数据服务。

5.1 创建表

hive 创建表的语法如下,实际操作时按需选择操作符即可

CREATE [TEMPORARY] [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name     -- 表名
  [(col_name data_type [COMMENT col_comment],
    ... [constraint_specification])]  -- 列名 列数据类型
  [COMMENT table_comment]   -- 表描述
  [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]  -- 分区表分区规则
  [
    CLUSTERED BY (col_name, col_name, ...) 
   [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS
  ]  -- 分桶表分桶规则
  [SKEWED BY (col_name, col_name, ...) ON ((col_value, col_value, ...), (col_value, col_value, ...), ...)  
   [STORED AS DIRECTORIES] 
  ]  -- 指定倾斜列和值
  [
   [ROW FORMAT row_format]    
   [STORED AS file_format]
     | STORED BY 'storage.handler.class.name' [WITH SERDEPROPERTIES (...)]  
  ]  -- 指定行分隔符、存储文件格式或采用自定义存储格式
  [LOCATION hdfs_path]  -- 指定表的存储位置
  [TBLPROPERTIES (property_name=property_value, ...)]  -- 指定表的属性
  [AS select_statement];   -- 从查询结果创建表

在这里插入图片描述

使用 create like 语句可以复制一张表的表结构

CREATE [TEMPORARY] [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name  -- 创建表的表名
   LIKE existing_table_or_view_name  -- 被复制表的表名
   [LOCATION hdfs_path]; -- 存储位置

在这里插入图片描述
加载 HDFS 路径数据文件到表的命令如下:

-- 加载数据到 emp 表中
load data local inpath "/home/omc/emp.txt" into table emp;

5.2 修改表

  • 修改表名
ALTER TABLE table_name RENAME TO new_table_name;

ALTER TABLE whaleMart_copy RENAME TO whaleMart_tmp;
在这里插入图片描述

  • 修改列
ALTER TABLE table_name [PARTITION partition_spec] CHANGE [COLUMN] col_old_name col_new_name column_type
  [COMMENT col_comment] [FIRST|AFTER column_name] [CASCADE|RESTRICT];

修改 whaleMart 表中的字段属性,命令如下

-- 修改字段名和类型
ALTER TABLE whaleMart CHANGE goods_id goods_code STRING;

-- 修改字段 goods_code 的名称并将其放置到 goods_name 字段后
ALTER TABLE whaleMart CHANGE goods_code goods_id STRING AFTER goods_name;

-- 为字段增加注释
ALTER TABLE whaleMart CHANGE goods_id goods_id STRING COMMENT '商品编号';

在这里插入图片描述
在这里插入图片描述
可以看到,添加的中文注释并未正常显示。这是因为 hive 元数据库创建,默认编码是 lanin1,需要登录当前 hive 运行环境的 mysql 数据库,修改 mysql 配置文件 /etc/my.cnf 内容,确保包含如下内容(缺少的添加):

[mysqld]
character-set-server=utf8mb4
collation-server=utf8mb4_general_ci

[client]
default-character-set=utf8mb4

[mysql]
default-character-set=utf8mb4

修改后重启 mysql

systemctl stop mysqld
systemctl start mysqld

hive 表重新插入注释,即可正常显示中文
在这里插入图片描述

5.3 清空表、删除表

  • 清空表
-- 清空整个表或表指定分区中的数据
TRUNCATE TABLE table_name [PARTITION (partition_column = partition_col_value,  ...)];

需要注意的是:只有内部表才支持 TRUNCATE 命令,对外部表执行 TRUNCATE 操作时会报错。

TRUNCATE TABLE whaleMart_tmp

  • 删除表
DROP TABLE [IF EXISTS] table_name [PURGE]; 

5.4 其他命令

  • describe 命令
DESCRIBE|Desc DATABASE [EXTENDED] db_name;  -- EXTENDED 是否显示额外属性

DESCRIBE|Desc [EXTENDED|FORMATTED] table_name;  -- FORMATTED 以友好的展现方式查看表详情

在这里插入图片描述

  • show
    不太常用的命令如下:
-- 查看视图列表
SHOW VIEWS

-- 查看表的分区列表
SHOW PARTITIONS table_name;

-- 查看表或者视图的创建语句
SHOW CREATE TABLE ([db_name.]table_name|view_name);

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值