在配置 hive on spark 之前,hive是正常使用的。
问题在于:
配置hive on spark时,有一步是将编译好的 spark-2.4.5-bin-without-hive 中的jars目录下的
scala-library-2.11.12.jar、spark-core_2.11-2.4.5.jar、spark-network-common_2.11-2.4.5.jar
三个jar包以软连接的形式指向 hive 的 lib 目录下
如果是以这种形式操作出现 hive 不能正常使用的
建议:
用 scp 的方式取代软链接(操作前记得删除 hive/lib 目录下的 上述三个jar包)
仅供参考,可能有用!!!!!!!!!!