HDFS的读写流程

本文详细介绍了HDFS的读写流程。在写数据时,客户端先与NameNode交互确认权限和路径,然后NameNode指示客户端将数据上传到指定DataNodes,DataNodes之间负责创建副本。读数据时,客户端向NameNode查询文件位置,选择最近的DataNode读取数据,DataNode将数据以包为单位传输给客户端。HDFS在选择副本节点时考虑了距离和机架分布以确保可靠性与效率。
摘要由CSDN通过智能技术生成

HDFS的写数据流程

  1.  客户端需要上传文件,客户端就会创建一个Distributed FileSystem,向NameNode请求上传文件。
  2. 此时,NameNode要检查,该客户端是否有权限进行操作。然后开始检查目录结构能否创建成功。检查完成后,Namenode就会响应,通知客户端上传文件。
  3. 客户端此时会请求上传第一个Block,需要NN返回DataNode,告知客户端上传的位置。
  4. NN会返回几个DataNode,例如返回了3个节点。表示告知客户端要用返回的三个节点存储数据。
  5. 此时HDFS客户端会创建一个FSDataOutPutSystream,用该流来传输数据。创建完成后,首先先向第一个DataNode,请求建立传输通道。(注意:此时我们只需要向一个DataNode建立即可,该DataNode会与剩下的DataNode建立通道。即我们只需要将数据传输给第一个Node,之后客户端就可以关闭,让DataNode与DataNode之间传递数据(创建副本))
  6. 所有DataNode建立好传输通道,就回头输出应答结果,当应答结果传递给客户端,客户端就开始传递数据
  7. 客户端传递数据,传递数据
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HDFSHadoop Distributed File System)是Hadoop生态系统中的一部分,它是一个可伸缩的分布式文件系统,可以在大型集群中存储和处理超大型数据集。下面是HDFS读写流程和原理: 1. 流程 (1)客户端向NameNode请求入文件,NameNode返回一个DataNode列表,客户端接收到后与DataNode进行数据通信。 (2)客户端将数据划分为一个个数据块,并与DataNode建立连接,将数据块DataNode。 (3)DataNode接收到数据块后,先将数据入本地磁盘,然后将数据块复制到其他DataNode上,以实现数据备份。 (4)客户端在入完数据后,向NameNode发送文件元数据,即文件名、数据块ID、数据块所在的DataNode等信息,NameNode将这些信息保存在内存中,并更新元数据信息。 2. 读取流程 (1)客户端向NameNode请求读取文件,NameNode返回一个DataNode列表和对应的数据块位置信息。 (2)客户端与DataNode建立连接,请求数据块,DataNode将数据块返回给客户端。 (3)客户端读取完所有数据块后,将数据块组合成完整的文件。 HDFS的主要原理是数据分片和复制。HDFS将大文件划分为多个数据块,每个数据块默认大小为128MB,每个数据块会复制到多个DataNode上,以实现数据备份和容错。NameNode负责管理文件系统的元数据,包括文件名、文件目录、数据块位置等信息,而DataNode则负责数据块的存储和读写。这种分布式存储方式可以实现高可用性和高可靠性,并且可以通过增加DataNode数量来提高存储和读写性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值