HDFS读写流程

HDFS的读数据流程

  • 1.客户端向NameNode请求读文件,NameNode通过查询元数据,找到文件块所在的DataNode地址,并返回地址给客户端
  • 2.挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据
  • 3.DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以packet为单位校验)
  • 4.客户端以packet为单位接收,先在本地缓存,然后写入目标文件
  • 5.关闭资源

HDFS的写数据流程

  • 1.首先客户端向NameNode请求上传文件
  • 2.然后NameNode检查目录树是否可以创建文件(检查权限——是否允许上传,检查目录结构是否存在)。当都通过的时候响应客户端,反馈可以上传文件
  • 3.客户端接收到可以上传文件的允许后,切分Block块,向NameNode请求上传第一个Block,上传到哪几个DataNode
  • 4.NameNode进行计算,选择副本存储节点,第一个选择的是本地节点,第二个选择的是其他机架的一个节点,第三个是其他机架的另一个节点(默认三个副本存储节点)。并把这三个节点返回给客户端(dn1、dn2、dn3)
  • 5.客户端拿到这三个节点后,创建一个流,向离的最近的一个节点(dn1)进行请求建立Block传输通道,而最近的节点(dn1)会向另外的节点(dn2)进行请求建立通道,另外的节点(dn2)会向第三个节点请求传输通道(dn3)
  • 6.三个节点接收到请求建立通道后,逐一进行应答客户端
  • 7.客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,dn1收到一个packet后就会复制一份并传给dn2,dn2传给dn3
  • 8.最后一个datanode成功存储之后会返回一个ack数据包,在pipeline里传递至客户端,在客户端的内部维护着"ack queue",会将返回的ack进行对比,只要有一个DataNode的ack能匹配上,就认为本次写入是成功的。
  • 9.当一个 Block 传输完成之后,客户端再次请求 NameNode 上传第二个 Block 的服务器。(重复执行 3-7 步)
  • 10.传输完毕之后,客户端关闭流资源,并且会告诉hdfs数据传输完毕,然后hdfs收到传输完毕就恢复元数据

DataNode写入数据失败处理流程

  • pipeline被关闭,在确认队列中剩下的包会被添加进数据队列的起始位置上,以至于在失败的节点下游的任何节点都不会丢失任何的包。
  • 之后与NameNode练习后,当前在一个好的DataNode会联系NameNode,给失败节点上还未写完的块生成一个新的标识ID,以至于如果这个失败的DataNode不久后恢复了,这个不完整的块会被删除。
  • 失败节点从pipeline中移除,之后剩下来好的DataNode会组成一个新的pipeline,剩下的这些块(刚刚放进数据队列队首的包)会继续写进pipeline中好的DataNode中。
  • 最后,NameNode注意到备份数小于规定的备份数,它就安排在另一个节点上创建完成备份,直接从已有的块中复制就好了。直到满足了备份数。如果有多个节点写入失败了,如果满足了最小备份数的设置,写入也将成功,之后剩下的备份会被集群异步的执行备份,直到满足了备份数。
  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HDFSHadoop Distributed File System)是Hadoop生态系统中的一部分,它是一个可伸缩的分布式文件系统,可以在大型集群中存储和处理超大型数据集。下面是HDFS读写流程和原理: 1. 写入流程 (1)客户端向NameNode请求写入文件,NameNode返回一个DataNode列表,客户端接收到后与DataNode进行数据通信。 (2)客户端将数据划分为一个个数据块,并与DataNode建立连接,将数据块写入DataNode。 (3)DataNode接收到数据块后,先将数据写入本地磁盘,然后将数据块复制到其他DataNode上,以实现数据备份。 (4)客户端在写入完数据后,向NameNode发送文件元数据,即文件名、数据块ID、数据块所在的DataNode等信息,NameNode将这些信息保存在内存中,并更新元数据信息。 2. 读取流程 (1)客户端向NameNode请求读取文件,NameNode返回一个DataNode列表和对应的数据块位置信息。 (2)客户端与DataNode建立连接,请求数据块,DataNode将数据块返回给客户端。 (3)客户端读取完所有数据块后,将数据块组合成完整的文件。 HDFS的主要原理是数据分片和复制。HDFS将大文件划分为多个数据块,每个数据块默认大小为128MB,每个数据块会复制到多个DataNode上,以实现数据备份和容错。NameNode负责管理文件系统的元数据,包括文件名、文件目录、数据块位置等信息,而DataNode则负责数据块的存储和读写。这种分布式存储方式可以实现高可用性和高可靠性,并且可以通过增加DataNode数量来提高存储和读写性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值