集群遇见的问题及解决方案
目录
1.解决“org.apache.hadoop.security.AccessControlException”
1.解决“org.apache.hadoop.security.AccessControlException”
在运行某个Spark Application的时候,需要向Hdfs写入文件,控制台会输出以下错误信息:
Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=Administrator, access=WRITE, inode="/user":root:supergroup:drwxr-xr-x
从中很容易看出是因为当前执行Spark Application的用户没有Hdfs“/use