一:问题
Exception in thread “main” org.apache.spark.sql.catalyst.analysis.NoSuchTableException
run.sh如下
/usr/local/src/spark-1.6.3-bin-hadoop2.6/bin/spark-submit \
--master local[1] \
--jars /usr/local/src/spark-1.6.3-bin-hadoop2.6/lib/mysql-connector-java-5.1.41-bin.jar \
--class com.test.sql.sqlHiveTest /home/codes_13/spark_sql/SparkTest-1.0-SNAPSHOT.jar
出现报错信息,说在default库下找不到test表,但可以确定是服务器hive是有这张表存在
二:原因分析
1.不是真的没有这张表存在,是因为spark没有关联hive,导致找不到相应的数据信息。
三:问题解决
将hive按照目录的conf文件夹下的hive-site.xml复制到spark按照目录的conf文件夹下
转载:https://blog.csdn.net/WGBLW/article/details/104558069