1.hdfs文件写流程:
1.Client调用FileSystem.create(filePath)方法,去与Namenode进行rpc通信,check该路径的文件是否存在以及有没有权限创建该文件,假如ok,就创建一个新文件,但是并不关联任何block,返回一个FSDataOutputStream对象;(假如not ok,就返回错误信息,所以写代码要try-catch)。
如果出现权限问题俩种解决办法:
[root@hadoop01 hadoop]#hdfs dfs -put slaves /
put: Permission denied: user=root, access=WRITE, inode="/":hadoop:supergroup:drwxr-xr-x
因为你在root用户上没有开启hdfs,而是在hadoop用户上开启的,你现在在root用户执行hdfs命令他就会报权限错误。
有俩种解决办法。
(1)su - hadoop -c "hdfs命令"
[root@hadoop000 ~]# su - hadoop -c "hdfs dfs -put /tmp/test.log /"在root用户之下直接执行在Hadoop用户上的命令。这条命令表示
将root用户下的/tmp/test.log上传到hdfs上
总的来说你执行这条命令在其他用户之上,你得有切到hadoop的权限
[root@hadoop000 ~]# su - hadoop -c "hdfs dfs -ls /"
Found 6 items
-rw-r--r-- 1 hadoop supergroup 18 2018-05-19 20:47 /rz.log
-rw-r--r-- 2 hadoop supergroup 18 2018-05-19 21:20 /rz.log1
-rw-r--r-- 1 hadoop supergroup 18 2018-05-20 20:04 /rz.log123
-rw-r--r-- 1 hadoop supergroup 0 2018-05-20 20:10 /test.log
drwx------ - hadoop supergroup 0 2018-05-