hive学习笔记之三:内部表和外部表

test001

Time taken: 0.016 seconds, Fetched: 2 row(s)

  1. describe database命令查看此数据库信息:

hive> describe database test;

OK

test this is a database for test hdfs://node0:8020/user/hive/warehouse/test.db hadoop USER

Time taken: 0.035 seconds, Fetched: 1 row(s)

  1. 上述命令可见,test数据库在hdfs上的存储位置是hdfs://node0:8020/user/hive/warehouse/test.db,打开hadoop的web页面,查看hdfs目录,如下图,该路径的文件夹已经创建,并且是以.db结尾的:

在这里插入图片描述

  1. 新建数据库的文件夹都在/user/hive/warehouse下面,这是在中配置的,如下图红框:

在这里插入图片描述

  1. 删除数据库,加上if exists,当数据库不存在时,执行该语句不会返回Error:

hive> drop database if exists test;

OK

Time taken: 0.193 seconds

以上就是常用的库相关操作,接下来实践表相关操作;

内部表

  1. 按照表数据的生命周期,可以将表分为内部表和外部表两类;

  2. 内部表也叫管理表或临时表,该类型表的生命周期时由hive控制的,默认情况下数据都存放在/user/hive/warehouse/下面;

  3. 删除表时数据会被删除;

  4. 以下命令创建的就是内部表,可见前面两篇文章中创建的表都是内部表:

create table t6(id int, name string)

row format delimited

fields terminated by ‘,’;

  1. 向t6表新增一条记录:

insert into t6 values (101, ‘a101’);

  1. 使用hadoop命令查看hdfs,可见t6表有对应的文件夹,里面的文件保存着该表数据:

[hadoop@node0 bin]$ ./hadoop fs -ls /user/hive/warehouse/t6

Found 1 items

-rwxr-xr-x 3 hadoop supergroup 9 2020-10-31 11:14 /user/hive/warehouse/t6/000000_0

  1. 查看这个000000_0文件的内容,如下可见,就是表内的数据:

[hadoop@node0 bin]$ ./hadoop fs -cat /user/hive/warehouse/t6/000000_0

101 a101

  1. 执行命令drop table t6;删除t6表,再次查看t6表对应的文件,发现整个文件夹都不存在了:

[hadoop@node0 bin]$ ./hadoop fs -ls /user/hive/warehouse/

Found 5 items

drwxr-xr-x - hadoop supergroup 0 2020-10-27 20:42 /user/hive/warehouse/t1

drwxr-xr-x - hadoop supergroup 0 2020-10-29 00:13 /user/hive/warehouse/t2

drwxr-xr-x - hadoop supergroup 0 2020-10-29 00:14 /user/hive/warehouse/t3

drwxr-xr-x - hadoop supergroup 0 2020-10-29 13:04 /user/hive/warehouse/t4

drwxr-xr-x - hadoop supergroup 0 2020-10-29 16:47 /user/hive/warehouse/t5

外部表

  1. 创建表的SQL语句中加上external,创建的就是外部表了;

  2. 外部表的数据生命周期不受Hive控制;

  3. 删除外部表的时候不会删除数据;

  4. 外部表的数据,可以同时作为多个外部表的数据源共享使用;

  5. 接下来开始实践,下面是建表语句:

create external table t7(id int, name string)

row format delimited

fields terminated by ‘,’

location ‘/data/external_t7’;

  1. 查看hdfs文件,可见目录/data/external_t7/已经创建:

[hadoop@node0 bin]$ ./hadoop fs -ls /data/

Found 1 items

drwxr-xr-x - hadoop supergroup 0 2020-10-31 12:02 /data/external_t7

  1. 新增一条记录:

insert into t7 values (107, ‘a107’);

  1. 在hdfs查看t7表对应的数据文件,可以见到新增的内容:

[hadoop@node0 bin]$ ./hadoop fs -ls /data/external_t7

Found 1 items

-rwxr-xr-x 3 hadoop supergroup 9 2020-10-31 12:06 /data/external_t7/000000_0

[hadoop@node0 bin]$ ./hadoop fs -cat /data/external_t7/000000_0

107,a107

  1. 试试多个外部表共享数据的功能,执行以下语句再建个外部表,名为t8,对应的存储目录和t7是同一个:

create external table t8(id_t8 int, name_t8 string)

row format delimited

fields terminated by ‘,’

location ‘/data/external_t7’;

  1. 建好t8表后立即查看数据,发现和t7表一模一样,可见它们已经共享了数据:

hive> select * from t8;

OK

107 a107

Time taken: 0.068 seconds, Fetched: 1 row(s)

hive> select * from t7;

OK

107 a107

Time taken: 0.074 seconds, Fetched: 1 row(s)

  1. 接下来删除t7表,再看t8表是否还能查出数据,如下可见,数据没有被删除,可以继续使用:

hive> drop table t7;

OK

Time taken: 1.053 seconds

hive> select * from t8;

OK

107 a107

Time taken: 0.073 seconds, Fetched: 1 row(s)

  1. 把t8表也删掉,再去看数据文件,如下所示,依然存在:

[hadoop@node0 bin]$ ./hadoop fs -cat /data/external_t7/000000_0

107,a107

最后

笔者已经把面试题和答案整理成了面试专题文档

image

image

image

image

image

image

加入社区:https://bbs.csdn.net/forums/4304bb5a486d4c3ab8389e65ecb71ac0
答案整理成了面试专题文档**

[外链图片转存中…(img-Exe7DqBP-1725631786852)]

[外链图片转存中…(img-2gWlkA71-1725631786853)]

[外链图片转存中…(img-CWDsfyjB-1725631786854)]

[外链图片转存中…(img-ZZMUlNl2-1725631786854)]

[外链图片转存中…(img-aw3ECX8G-1725631786855)]

[外链图片转存中…(img-yxqx5pPK-1725631786855)]

加入社区:https://bbs.csdn.net/forums/4304bb5a486d4c3ab8389e65ecb71ac0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值