hive元数据异常解决方案
最近在IDEA里使用spark向hive中保存数据。添加依赖时hive-jdbc的版本写错2.3.6的hive写成1.3.6,并且执行成功。导致hive元数据异常。
metastore 服务启动报错(启动命令:hive --service metastore &)
Caused by: MetaException(message:Hive Schema version 2.3.0 does not match metastore’s schema version 1.2.0 Metastore is not upgraded or corrupt)_2FAILED: SemanticException
进入hive执行命令报错(show databases;)
org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
在这里提供两种解决方案:
方案一保留原hive数据(推荐)
1、进入hdfs将hive中的出问题元数据删除
2、登陆mysql。mysql -u root -p (123456)
登陆mysql,修改hive metastore版本:
进行mysql:mysql -uroot -p (123456)
use hive;
select * from version;
update VERSION set SCHEMA_VERSION='2.1.1' where VER_ID=1;