将数据直接上传到分区目录(hdfs)上,让Hive分区表和数据产生关联有哪些方式?

前言

本文隶属于专栏《1000个问题搞定大数据技术体系》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢!

本专栏目录结构和参考文献请见1000个问题搞定大数据技术体系

正文

方案一:上传数据后修复表

hdfs dfs -mkdir -p 分区目录
hdfs dfs -put 分区目录

hive> msck repair table 表名

方案二: 上传数据后添加分区

hdfs dfs -mkdir -p 分区目录
hdfs dfs -put 分区目录

hive> alter table 表名 add partition();

提示:这里如果直接将新的分区文件上传到hdfs上,因为hive没有对应的元数据所以是无法査询到数据的,所以我们要进行表修复或者添加分区。

好的,您可以使用以下步骤来查看HDFSHive数据仓库中的分区表的所有分区和部分分区数据: 1. 首先需要进入到HDFS的命令行界面,可以使用以下命令: ```shell hdfs dfs -ls / ``` 该命令可以列出HDFS目录下的所有文件和目录。如果您已经知道Hive数据仓库在HDFS上的具体路径,可以直接进入该目录;否则可以使用以下命令查找: ```shell hdfs dfs -ls -R / | grep -i "hive" ``` 该命令会递归地列出HDFS目录下所有包含"hive"关键字的文件和目录,包括Hive数据仓库所在的目录。 2. 进入到Hive数据仓库所在的目录,例如: ```shell cd /user/hive/warehouse/ ``` 该命令会进入到Hive数据仓库所在的目录,该目录下的子目录对应了不同的Hive表。 3. 进入到您需要查看的分区表所在的目录,例如: ```shell cd log_data_partitioned/ ``` 该命令会进入到log_data_partitioned分区表所在的目录,该目录下的子目录对应了不同的分区。 4. 使用以下命令查看所有分区的信息: ```shell hdfs dfs -ls . ``` 该命令会列出当前目录下的所有子目录,每个子目录对应了一个分区,并以分区键值命名。例如,如果您的分区键为"date",则每个子目录的名称应该类似于"date=20220101"。 5. 如果您需要查看某个分区数据,可以进入到该分区所在的目录,例如: ```shell cd date=20220101/ ``` 该命令会进入到"date=20220101"分区所在的目录。 6. 使用以下命令查看该分区的部分数据: ```shell hdfs dfs -cat part-m-00000 | head ``` 该命令会显示该分区中第一个数据文件(part-m-00000)的前几行数据。您可以根据需要修改该命令来查看更多的数据,或者使用其他工具(例如Hive或者Spark)来查询和分析分区表中的数据
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值