HDFS的读写流程

本文详细介绍了HDFS的读写流程。在写流程中,客户端通过DistributedFileSystem与NameNode交互,获取DataNode列表,按照就近原则依次将文件块上传到DataNode。在读流程中,客户端同样通过DistributedFileSystem向NameNode请求文件,然后从指定的DataNode下载文件块。
摘要由CSDN通过智能技术生成

HDFS的读写流程

HDFS写流程(上传流程)

写流程

  1. 需要的东西:要上传的文件、客户端Client、NameNode
  2. 首先,需要在客户端Client上创建一个分布式文件系统的对象(DistributedFileSystem),然后客户端申请向NameNode上传文件,NameNode会向客户端响应是否可以上传文件。(判断的标准:要申请的上传文件的目录不存在,且具有写权限)
  3. 紧接着,客户端会开一个HDFS的输出流叫做FSDataOutputStream,请求NameNode上传第一个文件块,然后NameNode会返回一个DataNode的列表(副本数)给客户端,告诉客户端可以上传的文件块的位置在哪里。
  4. 这时候,客户端采用就近原则,先与DN1建立TCP的通信通道(串行通道),紧接着和DN2、DN3建立通信通道,建立通道以后,会相应的给出应答。然后客户端就会以Packet(64KB)数据包的形式发送数据给DN1,DN1一边往磁盘缓存数据,一边同步数据到DN2、DN3中。
  5. 之后,会上传第二个文件块,与上述描述情况类似。
  6. 最后,当两个文件块的数据都上传完以后,客户端会告诉NameNode文件上传完毕,NameNode就更在元数据中更新一下元数据,整个HDFS写流程就完毕了。

HDFSHadoop Distributed File System)是Hadoop生态系统中的一部分,它是一个可伸缩的分布式文件系统,可以在大型集群中存储和处理超大型数据集。下面是HDFS读写流程和原理: 1. 流程 (1)客户端向NameNode请求文件,NameNode返回一个DataNode列表,客户端接收到后与DataNode进行数据通信。 (2)客户端将数据划分为一个个数据块,并与DataNode建立连接,将数据块入DataNode。 (3)DataNode接收到数据块后,先将数据入本地磁盘,然后将数据块复制到其他DataNode上,以实现数据备份。 (4)客户端在数据后,向NameNode发送文件元数据,即文件名、数据块ID、数据块所在的DataNode等信息,NameNode将这些信息保存在内存中,并更新元数据信息。 2. 读取流程 (1)客户端向NameNode请求读取文件,NameNode返回一个DataNode列表和对应的数据块位置信息。 (2)客户端与DataNode建立连接,请求数据块,DataNode将数据块返回给客户端。 (3)客户端读取所有数据块后,将数据块组合成整的文件HDFS的主要原理是数据分片和复制。HDFS将大文件划分为多个数据块,每个数据块默认大小为128MB,每个数据块会复制到多个DataNode上,以实现数据备份和容错。NameNode负责管理文件系统的元数据,包括文件名、文件目录、数据块位置等信息,而DataNode则负责数据块的存储和读写。这种分布式存储方式可以实现高可用性和高可靠性,并且可以通过增加DataNode数量来提高存储和读写性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值