1.遇到的问题
当我在Spark处理好数据后,想保存到HDFS上后,发现IDEA报了Permission denied: user=hadoop, access=WRITE, inode="/myhdfs/job":root:super这个权限错误
2.解决办法
经排查,发现是我保存的路径是root用户下创建的,而我IDEA里面是hadoop用户。
于是有两种办法:
一是重新切换到hadoop用户下,以hadoop用户身份重新新建一个目录,然后再保存到这个新建的
目录。
二是修改之前路径的权限,允许hadoop用户修改。