hdfs读写流程

HDFS文件写入过程

在这里插入图片描述
1.client发起文件上传请求 通过RPC和NameNode建立连接,NameNode检查目标文件是否存在,检查父目录是否存在,检查用户是否有权限,返回是否可以上传

2.client请求第一个block该传输到那些DataNode服务器上

3.NameNode根据配置文件中指定的备份数量及机架感知原理进行文件分配,返回可用的DataNode地址如:A,B,C

注:hadoop在设计时考虑到数据的安全与高效,数据文件默认在HDF上存放三份,存储策略为本地一份,同机架内其他某节点上一份,不同机架的某一节点上一份.

4.client请求3台DataNode中的一台A上传 数据(本质上是一个RPC调用,建立pipeline),A收到请求会继续调用B,然后调用C,将整个pipeline建立完成,后逐级返回client

5.client开始往A上传第一个block(先从磁盘读取数据放到一个本地缓存),以packet为单位(默认64K),A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答

6.数据被分割成一个个packet数据包在pipeline上一次传输,在pipeline反方向上,逐个发送ack(命令正确应答),最终由pipeline中第一个DataNode节点A将pipelineack发送给client

7.当一个block传输完成之后,client再次请求NameNode上传第二个block到服务器

HDFS文件读取过程

在这里插入图片描述
1.client向NameNode发起RPC请求,来确定请求文件block所在的位置

2.NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode都会返回含有该block副本的DataNode地址,这些返回的DataNode地址,会按照集群拓扑结构得出DataNode与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离client近的排靠前,心跳机制中超时汇报的DataNode状态为STALE,这样的排靠后

3.client选取排序靠前的DataNode来读取block,如果客户端本身就是DataNode,name将从本地直接获取数据(短路读取特性)

4.底层上本质是建立Socket Stream(FSDatainputStream),重复的调用父类DatainputStream的read方法,直到这个块上的数据读取完毕

5.当读完列表的block后,若文件读取还没有结束,客户端会继续向NameNode获取下一批的block列表

6.读取完一个block都会进行checksum验证,如果读取DataNode时出现错误,客户端会通知NameNode,然后再从下一个拥有该block副本的DataNode继续读

7.read方法是并行读取block信息,不是一块一块的读,NameNode只是返回client请求包含块的DataNode地址,并不是返回请求块的数据

8.最终读取来所有的block会合并成一个完整的最终文件

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值