工作中需要在hive中存储数据,sparksql操作数据。按照网上的教程,将hive的conf目录下hive-default.xml拷贝到spark的conf目录下(当前hive下没有hive-site.xml,当时没有意识到这个会有问题),启动spark shell
./bin/spark-shell --master yarn-client --driver-class-path lib/mysql-connector-java-5.1.37.jar
至此一切正常,执行命令
sqlContext.sql("show tables").collect.foreach(println),发现表都没有了
直接查询表数据,报如下类似错误:
INFO metastore.HiveMetaStore: 0: get_table : db=default tbl=my_table
16/12/02 11:41:43 INFO HiveMetaStore.audit: ugi=etl ip=unknown-ip-addr cmd=get_table : db=test tbl=mytable
Exception in thread "main" org.apache.spark.sql.AnalysisException: no such table mytable;</