HDFS写流程

HDFS写流程


某一时间点,客户端client 在传其中的一个块的三个副本时候的样子:

1、客户端是一个jvm,在一个节点,它里面有一个文件,文件切成很多的块,上传到hdfs,
客户端第一件事情是和NameNode交互元数据,告诉他上传文件的元数据信息,此时NameNode会触发副本放置策略,(第一个放在本机,第二三个出机架)这时是 namenode给客户端返回了三个DataNode,
在这里插入图片描述

流程:
Client和NN连接创建文件元数据
NN判定元数据是否有效(是否目录下有重名或其他受限制)
NN触发副本放置策略,返回一个有序的DN列表
Client和DN建立Pipeline(管道,流式传输)连接
Client将块切分成packet(包)(64KB),并使用chunk(512B)+chucksum(校验和)(4B)填充(客户端先准备一个64Kb的buffer,然后从文件读入512B,拿出这512字节算出一个校验和一起填入buffer中)
Client将packet放入发送队列dataqueue中,并向第一个DN发送
第一个DN收到packet后本地保存并发送给第二个DN
第二个DN收到packet后本地保存并发送给第三个DN
这一个过程中,上游节点同时发送下一个packet
生活中类比工厂的流水线:结论:流式其实也是变种的并行计算
Hdfs使用这种传输方式,副本数对于client是透明的
当block传输完成(即传了64M后,不再传),DN们各自向NN汇报,同时client继续传输下一个block
所以,client的传输和block的汇报也是并行的
(DN挂掉:第三个挂,不影响整体传输,只要其中一个成功,ND会让成功的复制出一个或者两个,)
然后再向ND申请第二个block的三个副本,

HDFSHadoop Distributed File System)是Hadoop生态系统中的一部分,它是一个可伸缩的分布式文件系统,可以在大型集群中存储和处理超大型数据集。下面是HDFS的读流程和原理: 1. 流程 (1)客户端向NameNode请求入文件,NameNode返回一个DataNode列表,客户端接收到后与DataNode进行数据通信。 (2)客户端将数据划分为一个个数据块,并与DataNode建立连接,将数据块入DataNode。 (3)DataNode接收到数据块后,先将数据入本地磁盘,然后将数据块复制到其他DataNode上,以实现数据备份。 (4)客户端在入完数据后,向NameNode发送文件元数据,即文件名、数据块ID、数据块所在的DataNode等信息,NameNode将这些信息保存在内存中,并更新元数据信息。 2. 读取流程 (1)客户端向NameNode请求读取文件,NameNode返回一个DataNode列表和对应的数据块位置信息。 (2)客户端与DataNode建立连接,请求数据块,DataNode将数据块返回给客户端。 (3)客户端读取完所有数据块后,将数据块组合成完整的文件。 HDFS的主要原理是数据分片和复制。HDFS将大文件划分为多个数据块,每个数据块默认大小为128MB,每个数据块会复制到多个DataNode上,以实现数据备份和容错。NameNode负责管理文件系统的元数据,包括文件名、文件目录、数据块位置等信息,而DataNode则负责数据块的存储和读。这种分布式存储方式可以实现高可用性和高可靠性,并且可以通过增加DataNode数量来提高存储和读性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值