出现原因:
本地写spark代码操作hive,配置文件中直接连接的mysql元数据服务,连接后导致hive的shell端查询报错:
Unable to instantiate org.apache.hadoop.hive.ql.metasdata.SessionHiveMetaStoreClient
排查后发现hive的元数据库中VERSION表被改动了,重新修改后才能在shell端查询
解决:
hive-stite文件加上这个配置,通过metastore去连接元数据服务,是因为spark内置的hive版本和元数据服务的hive版本不一致导致的