场景
一张内部表数据有问题,打算删了重新抽一遍,结果发现数据量太大,要抽好久,可能会影响业务。没办法,只能暂时恢复这张表再重新修数据了。
步骤
1.确认HDFS是否开启回收站功能
2.查看回收站中的数据
被删除的数据会放在删除数据时使用的用户目录下,如:使用ldl-dwh删除的,那么删除的数据会放在如下目录:
/user/ldl-dwh/.Trash
该目录下会有多个文件夹,每小时删除的数据放在不同文件夹下,如删除的/data/ldldws/i_pos_offtake在201022050000目录下:
[ldl-dwh@utility02 ~]$ hdfs dfs -ls ./.Trash/*/data/ldldws/i_pos_offtake
Found 9 items
drwx------ - ldl-dwh ldl-dwh 0 2020-10-22 04:38 .Trash/201022050000/data/ldldws/i_pos_offtake/offtake_year=1952
drwx------ - ldl-dwh ldl-dwh 0 2020-10-22 04:38 .Trash/201022050000/data/ldldws/i_pos_offtake/offtake_year=2011
drwx------ - ldl-dwh ldl-dwh 0 2020-10-22 04:38 .Trash/201022050000/data/ldldws/i_pos_offtake/offtake_year=2014
drwx------ - ldl-dwh ldl-dwh 0 2020-10-22 04:38 .Trash/201022050000/data/ldldws/i_pos_offtake/offtake_year=2016
drwx------ - ldl-dwh ldl-dwh 0 2020-10-22 04:38 .Trash/201022050000/data/ldldws/i_pos_offtake/offtake_year=2017
drwx------ - ldl-dwh ldl-dwh 0 2020-10-22 04:38 .Trash/201022050000/data/ldldws/i_pos_offtake/offtake_year=2018
drwx------ - ldl-dwh ldl-dwh 0 2020-10-22 04:38 .Trash/201022050000/data/ldldws/i_pos_offtake/offtake_year=2019
drwx------ - ldl-dwh ldl-dwh 0 2020-10-22 04:38 .Trash/201022050000/data/ldldws/i_pos_offtake/offtake_year=2020
drwx------ - ldl-dwh ldl-dwh 0 2020-10-22 04:38 .Trash/201022050000/data/ldldws/i_pos_offtake/offtake_year=__HIVE_DEFAULT_PARTITION__
3.将回收站的数据移动回表目录下
hive表数据存放的具体位置得看项目中hive的配置,默认放在/user/hive/warehouse下。公司生成环境放在/data下。
[ldl-dwh@utility02 ~]$ hdfs dfs -mv ./.Trash/*/data/ldldws/i_pos_offtake/* /data/ldldws/i_pos_offtake/
4.将metastore的分区信息重新写入metastore
通过hdfs dfs -put或者hdfs api写入hive分区表的数据在hive中是无法被查询到的,因为这部分数据的元数据信息没有同步到metastore。如:
spark-sql> select count(1) from ldldws.i_pos_offtake;
0
可使用MSCK REPAIR TABLE命令重新检查一张表的元数据信息。
spark-sql> msck repair table ldldws.i_pos_offtake;
再次查询即可查到数据:
spark-sql> select count(1) from ldldws.i_pos_offtake;
251746422