一:问题(Exception in thread “main” org.apache.spark.sql.catalyst.analysis.NoSuchTableException: Table or view ‘test’ not found in database ‘default’;)
1.使用HiveContext查询服务器hive表的内容
2.将其打成jar包,并在服务器执行时
spark-submit \
--class com.cbt.spark.HiveContextApp \
--master local[2] \
--jars /home/hadoop/software/mysql-connector-java-5.1.46-bin.jar \
/home/hadoop/lib/sql-1.0.jar
3.出现报错信息,说在default库下找不到test表,但可以确定是服务器hive是有这张表存在
二:原因分析
1.不是真的没有这张表存在,是因为spark没有关联hive,导致找不到相应的数据信息。
三:问题解决
将hive按照目录的conf文件夹下的hive-site.xml复制到spark按照目录的conf文件夹下