org.apache.spark.sql.AnalysisException: Table or view not found
Ambari集群,通过spark-shell无法连接到现有的hive,查询不到表,报如上错误,经排查,是spark的metastore需要修改
metastore.catalog.default默认为Spark, 即读取SparkSQL自己的metastore_db,修改完后,Spark Shell会去读取Hive的metastore,这样就可以实现以Spark Shell方式访问Hive SQL方式创建的databases/tables