1.写流程
hdfs dfs -ls / hdfs文件系统的根目录 而不是Linux
hdfs dfs -ls hdfs://hadoop002:9000/ hdfs://hadoop002:9000 来自core-site.xml
hdfs dfs -ls 读取当前命令操作的用户的路径 /user/用户/
hdfs dfs -put NOTICE.txt /
1.Client调用FileSystem.create(filePath),去与NN节点进行RPC通信,check该路径下的文件是否已经存在?
是否有权限创建该文件?
假如OK,就创建一个新的文件,但是不关联任何的block,返回一个FSDataOutputStream对象;
假如不OK,就返回错误信息
[root@hadoop002 hadoop-2.6.0-cdh5.7.0]# bin/hdfs dfs -put README.txt /
put: Permission denied: user=root, access=WRITE, inode="/":hadoop:supergroup:drwxr-xr-x
[root@hadoop002 hadoop-2.6.0-cdh5.7.0]#
130M
block0-1 block0-2 block0-3
block1-1 block1-2 block1-3
2.Client调用FSDataOutputStream对象的write方法,将
第一个块写入第一个DN,第一个DN写完就传输给第二个DN,
第二个DN写完就传输给第三个DN,当第三个DN写完,就返回一个ack packet
给第二个DN,当第二个DN接受到第三个的DN的ack packet,就发送ack packet
给第一个DN,当第一个DN接受到第二个的DN的ack packet,就返回ack packet
给FSDataOutputStream对象,意思标识第一个块 三个副本写完;
然后其余的块依次这样写
3.当文件全部写完,Client调用FSDataOutputStream对象的close方法,关闭输出流,flush缓存区的数据包。
4.再调用FileSystem.complete(),告诉NN节点写入成功
对于操作来说 无感知 透明的