在idea运行scala程序报错:Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState': java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should be writable. Current permissions are: ---------
解决方式:
%HADOOP_HOME%\bin\winutils.exe chmod 777 E:\tmp\hive
我在什么情况下遇到的呢?
在学习尚硅谷时,将模拟数据存放到本地spark自带的hive时,报的这个错误信息。