记一次Hive元数据管理问题的处理过程

在工作中遇到Hive元数据管理问题,通过SparkShell访问Hive时表消失并出现错误。问题根源在于Hive的默认配置文件hive-default.xml没有正确指定MySQL元数据存储,而使用了derby。解决方案是创建hive-site.xml并正确配置,使得Hive和Spark都能正确连接到MySQL元数据存储。
摘要由CSDN通过智能技术生成

工作中需要在hive中存储数据,sparksql操作数据。按照网上的教程,将hive的conf目录下hive-default.xml拷贝到spark的conf目录下(当前hive下没有hive-site.xml,当时没有意识到这个会有问题),启动spark shell

./bin/spark-shell --master yarn-client --driver-class-path lib/mysql-connector-java-5.1.37.jar

至此一切正常,执行命令

sqlContext.sql("show tables").collect.foreach(println),发现表都没有了

   直接查询表数据,报如下类似错误:

        INFO metastore.HiveMetaStore: 0: get_table : db=default tbl=my_table
16/12/02 11:41:43 INFO HiveMetaStore.audit: ugi=etl     ip=unknown-ip-addr      cmd=get_table : db=test tbl=mytable
Exception in thread "main" org.apache.spark.sql.AnalysisException: no such table mytable;
</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值