HDFS读写流程

1.1:HDFS读流程

①客户端向Namenode发送读请求,申请数据块(block)位置信息

②Namenode收到请求后,先检查是否有这个文件 其次检查是否有足够的权限,然后返回block列表

(针对于每个block,Namenode都会返回该block的Datanode地址)

③返回的每个DN地址按照集群拓扑结构找出距离客户端最近的节点,来读取block信息(可以理解为就近原则,短路读取特性)

④客户端以Packet为单位接收,先在本地缓存,然后写入目标文件

⑤当读完列表的 block 后,若文件读取还没有结束,客户端会继续向 Namenode 获取下一批的 block 列表

⑥写完后关闭输入流

⑦最终读取来所有的 block 会合并成一个完整的最终文件

tips

读方法是并行的读取 block 信息,不是一块一块的读取;Namenode 只是返回 Client请求包含块的 DataNode 地址,并不是返回请求块的数据


1.2:HDFS写流程

①客户端于Namenode建立通信并发送上传请求,Namenode检查权限,并检查目标目录是否有同名文件,两者有其一不满足则报错,如果满足,则返回给client一个可以上传的地址

②客户端根据上传文件的大小进行切块(默认128MB),切块后询问Namenode第一个block上传到哪个节点(Datanode)

③Namenode收到请求后,根据网络拓扑和机架感知以及副本放置机制进行文件分配,返回可用的Datanode地址

tips:Hadoop在设计时考虑到数据安全性和HA(高可用),上传的数据文件默认保存三个副本,存储策略为(本地一份,同机架内不同节点一份,不同机架一份)

④客户端收到Namenode返回的地址列表后,会与列表中的一个节点A建立pipeline,然后节点A调用节点B,节点B调用节点C,将整个数据管道建立完成,然后逐级反馈给客户端

⑤客户端收到反馈后,开始上传第一个block块,由搭建的pipeline依次传输,传输完成后,节点A将pipelineACK发送给客户端

tips:以包为单位64KB,从本地磁盘读取,放到本地内存缓存

⑥第一个block上传完成后,客户端再次申请上传第二个block,Namenode重选三台节点发送给客户端,重复以上操作


在这里插入图片描述


随时进行补充更新

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
HDFSHadoop Distributed File System)是Hadoop生态系统中的一部分,它是一个可伸缩的分布式文件系统,可以在大型集群中存储和处理超大型数据集。下面是HDFS读写流程和原理: 1. 写入流程 (1)客户端向NameNode请求写入文件,NameNode返回一个DataNode列表,客户端接收到后与DataNode进行数据通信。 (2)客户端将数据划分为一个个数据块,并与DataNode建立连接,将数据块写入DataNode。 (3)DataNode接收到数据块后,先将数据写入本地磁盘,然后将数据块复制到其他DataNode上,以实现数据备份。 (4)客户端在写入完数据后,向NameNode发送文件元数据,即文件名、数据块ID、数据块所在的DataNode等信息,NameNode将这些信息保存在内存中,并更新元数据信息。 2. 读取流程 (1)客户端向NameNode请求读取文件,NameNode返回一个DataNode列表和对应的数据块位置信息。 (2)客户端与DataNode建立连接,请求数据块,DataNode将数据块返回给客户端。 (3)客户端读取完所有数据块后,将数据块组合成完整的文件。 HDFS的主要原理是数据分片和复制。HDFS将大文件划分为多个数据块,每个数据块默认大小为128MB,每个数据块会复制到多个DataNode上,以实现数据备份和容错。NameNode负责管理文件系统的元数据,包括文件名、文件目录、数据块位置等信息,而DataNode则负责数据块的存储和读写。这种分布式存储方式可以实现高可用性和高可靠性,并且可以通过增加DataNode数量来提高存储和读写性能。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值