本地sparksql调试遇到的一些问题
1.报错:Hive support is required to CREATE Hive TABLE (AS SELECT)
解决办法:在spark中添加.enableHiveSupport()
2.创建hive表时报错:Unable to instantiate SparkSession with Hive support because Hive classes a
解决方法:需要引入spark-hive依赖
3.本地Sparksql运行中报java.net.UnknownHostException: nodeNA的异常
解决方法:在本地host文件中加上【远程服务器ip nodeNA】