上传
hdfs dfs -put ruozedata.log /user/hadoop/day01/ (把本地文件ruozedata.log复制上传到hdfs下的/user/hadoop/day01/ 的文件夹下面)
注释流程
- Client调filesystem.create(path),与nn rpc通信,check path是否已经存在及有没有权限创建;(rpc通信!不要搞混)假如OK,就创建一个新文件,但是不关联任何的block,返回一个FSDataOutputStream对象;假如不OK,就返回错误信息
- Client调用FSDataOutputStream对象的write方法,将第一个块写给DN1,当第一个块写完,DN1复制块到DN2,当第二个块写完,DN2复制块到DN3,当第三个块写完,DN3返回一个ack packet确认包给DN2,当DN2收到DN3的ack,发送一个ack给DN1,当DN1收到DN2的ack,发送一个ack给FSDataOutputStream对象,标识第一个块3个副本全部写完;然后余下的块依次这么写!
- 当文件写完成,Client调用FSDataOutputStream对象的close方法,关闭输出流,flush缓存区的数据包;
- 再调用filesystem.complete方法,告诉NN,我们写完了。