报错内容:
hive (default)> drop table mail;
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:java.lang.IllegalArgumentException: Wrong FS: hdfs://bigdata111:9000/user/hive/external/mail, expected: hdfs://mycluster)
报错原因:
hdfs的文件输入路径与元数据库中的数据不一致
因为在idea里执行的代码中,hdfs存储路径写的是某个节点的hdfs路径,而我用的是HA的集群。导致了错误的产生。
解决办法:
修改之前的路径
val tableHdfspATH = s"hdfs://bigdata111:9000/${HiveConfig.rootPath}/${table}"
修改之后的路径
val tableHdfspATH = s"hdfs://mycluster/${HiveConfig.rootPath}/${table}"
相关内容参考:
update DBS set DB_LOCATION_URI=REPLACE (DB_LOCATION_URI,'hdfs://bigdata111:9000/user/hive/warehouse','hdfs://mycluster/user/hive/warehouse');
DBS:存储了hive的database信息
SDS:存储输入输出format等信息,包括表的format和分区的format。
通过这次错误得知:【hdfs://集群名/ 】 是集群的地址,不是集群内文件系统的存储路径
参考文章:
https://blog.csdn.net/csdn_learner7/article/details/88304948