hive元数据异常解决方案
最近在IDEA里使用spark向hive中保存数据。添加依赖时hive-jdbc的版本写错2.3.6的hive写成1.3.6,并且执行成功。导致hive元数据异常。
metastore 服务启动报错(启动命令:hive --service metastore &)
Caused by: MetaException(message:Hive Schema version 2.3.0 does not match metastore’s schema version 1.2.0 Metastore is not upgraded or corrupt)_2FAILED: SemanticException
进入hive执行命令报错(show databases;)
org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
在这里提供两种解决方案:
方案一保留原hive数据(推荐)
1、进入hdfs将hive中的出问题元数据删除
2、登陆mysql。mysql -u root -p (123456)
登陆mysql,修改hive metastore版本:
进行mysql:mysql -uroot -p (123456)
use hive;
select * from version;
update VERSION set SCHEMA_VERSION='2.1.1' where VER_ID=1;
3重启hive。问题解决。
方案二清空hive数据
1、在hive的配置文件hive-site.xml添加如下配置:
<property>
<name>datanucleus.schema.autoCreateAll</name>
<value>true</value>
</property>
2、清空mysql上的元数据
drop database hive_metastore;
Query OK, 57 rows affected (0.42 sec)
MariaDB [(none)]> create database hive_metastore;
Query OK, 1 row affected (0.18 sec)
3、初始化元数据
[root@master /data/hive/conf]$ schematool -dbType mysql -initSchema
4、将第一步添加的配置去掉。重启hive。问题解决。