HDFS写流程

1,几种hdfs读取命令的区别:

hdfs dfs -ls /       //读取的hdfs系统的根目录,
hdfs dfs -ls  hdfs://hadoop:9000/    //hdfs://hadoop:9000/来自配置文件core-site.xml的
hdfs dfs -ls  //读取当前操作用户的路径例如 /user/用户/

2.写流程图:
在这里插入图片描述

hdfs dfs -put xx.tet /      // 一个简单的写入

1)Client调用FileSystem.create(filePath),去与NN节点进行RPC通信,检查该路径是否存在,是否有权限创建该文件。

假如OK,就创建一个新的文件,但是不关联任何的block,返回一个FSDataOutputStream对象;
假如不OK就返回错误信息,下面代码报错就是没有权限创建该文件,

root@hadoop hadoop-2.6.0-cdh5.7.0]# bin/hdfs dfs -put README.txt /
put: Permission denied: user=root, access=WRITE, inode="/":hadoop:supergroup:drwxr-xr-x
[root@hadoop hadoop-2.6.0-cdh5.7.0]# 

2)client调用FSDataOutputStream方法先将数据分块,写入data queue。data queue由data Streamer读取,并通知元数据节点分配数据节点,用来存储数据块,分配的数据节点放在一个pipeline里。data Streamer将数据块写入pipeline中的第一个DN,第一个DN写完就传输给第二个DN,第二个DN写完就传输给第三个DN,当第三DN写完,就返回一个ack packet给第二个DN,当第二个DN接受到第三个的DN的ack packet,就发送ack packet
给第一个DN,当第一个DN接受到第二个的DN的ack packet,就返回ack packet
给FSDataOutputStream对象,标识第一个块的三个副本写完;
然后其余的块一次这样写。
3)当文件全部写完,client调用FSDataOutputStream对象的close方法,关闭输出流。
4)再次调用FlieSystem.complete(),告诉NN节点写入成功。
5)如果数据节点在写入过程失败,关闭pipeline,将ack queue中的数据块放入data queue的开始,
当前的数据块在已经写入的数据节点中被元数据节点赋予新的标识,则错误的数据节点重启后能够察觉其数据块是过时的,会被删除,失败的数据节点从pipeline中移除,另外的数据块则写入pipeline中的另外两个DN,元数据节点则被通知数据块复制块数不足,将创建第三备份。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值