HDFS读写流程

本文以漫画形式详细阐述了HDFS的写入和读取流程。在写流程中,客户端将数据按默认blocksize分块,通过namenode协调将数据块存储到多个datanode,最终由datanode间完成数据复制。读流程则涉及客户端从namenode获取元数据,然后直接从datanode下载所需数据。
摘要由CSDN通过智能技术生成

为了更好地理解HDFS读写流程,下面主要以漫画的形式进行的叙述。
一、HDFS写的流程
1、HDFS主要组成(主要了解hadfs构成及其担任的工作)
在这里插入图片描述
client:客户端(主要发起读和写),可以在javaapi操作,也可以hdfs shell中操作
namenode:全局把控
datanode:存储数据
2、数据分块
默认的情况下,客户端知道一个blocksize是多大和有几个block的副本。
在这里插入图片描述
客户端根据默认blocksize的大小将上传的数据进行分块,分好之后去找全局的把控者(namenode),告诉它我要进行以什么样的方式进行数据存储。
3、数据存储
datenode进行数据存储
在这里插入图片描述
根据客户端的请求,namenode找好存储数据的datenode,告诉客户端你往那几个datenode存储。接下来客户端就进行数据存储,存储的时候client先将数据存到第一个datenode,然后这个datenode将数据存储到下一个datenode,第二个datenode将数据存储到第三个datenode上。也

HDFSHadoop Distributed File System)是Hadoop生态系统中的一部分,它是一个可伸缩的分布式文件系统,可以在大型集群中存储和处理超大型数据集。下面是HDFS读写流程和原理: 1. 流程 (1)客户端向NameNode入文件,NameNode返回一个DataNode列表,客户端接收到后与DataNode进行数据通信。 (2)客户端将数据划分为一个个数据块,并与DataNode建立连接,将数据入DataNode。 (3)DataNode接收到数据块后,先将数据入本地磁盘,然后将数据块复制到其他DataNode上,以实现数据备份。 (4)客户端在入完数据后,向NameNode发送文件元数据,即文件名、数据块ID、数据块所在的DataNode等信息,NameNode将这些信息保存在内存中,并更新元数据信息。 2. 读取流程 (1)客户端向NameNode求读取文件,NameNode返回一个DataNode列表和对应的数据块位置信息。 (2)客户端与DataNode建立连接,数据块,DataNode将数据块返回给客户端。 (3)客户端读取完所有数据块后,将数据块组合成完整的文件。 HDFS的主要原理是数据分片和复制。HDFS将大文件划分为多个数据块,每个数据块默认大小为128MB,每个数据块会复制到多个DataNode上,以实现数据备份和容错。NameNode负责管理文件系统的元数据,包括文件名、文件目录、数据块位置等信息,而DataNode则负责数据块的存储和读写。这种分布式存储方式可以实现高可用性和高可靠性,并且可以通过增加DataNode数量来提高存储和读写性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

1029179954

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值