hdfs读写流程

image.png

写流程

client 客户端
  • 1 ->namenode //hdfs client内的distributedfilesystem 向namenode 请求上传文件 test.txt
  • 3 ->namenode //请求上传第一个block(0-128m) 请求返回datanode
  • 5 ->datanode //hdfs client 内的fsdataoutputstream 请求建立block 传输通道->dn1
  • 7 ->datanode //客户端上传第一个blcok(先从磁盘读取数据放到一个本地内存空间缓存),
    • 以packet为单位 dn1 收到后会传给dn2 dn2 传给dn3 dn1每传一个packet会放入一个应答队列等待应答
  • 8 当第一个block传输成功之后 客户端再次请求上传第二个block服务
namenode
  • 2=检查目录树是否可以创建文件
    • 检查权限
    • 检查目录结构
  • 2.1->client
    • 相应可以上传文件
  • 4 ->client
    • 返回dn1 dn2 dn3 节点 表示采用这三个节点存储数据
datanode
  • 5 da1->da2 da2 ->da3 请求建立通道
  • 6 da3 ->da2 da2->da1 应答成功 dn1->hdfs client 内的fsdataoutputstream

读流程

在这里插入图片描述

client
  • 1 client 通过distrubutedfilesystem向—>namenode请求下载文件
  • 3 cleint 通过fsdatainputstream 请求datanode 读取数据blk_1
  • 客户端以 Packet 为单位接收,先在本地缓存,然后写入目标文件。
namenode
  • 2 namenode 通过查询元数据 找到文件块所在的datanode地址 —>client
datanode
  • 4 开始传输数据给客户端(从磁盘里面读取数据输入流,以 Packet 为单位 来做校验)。
  • 6
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HDFS(Hadoop Distributed File System)是Hadoop生态系统中的一部分,它是一个可伸缩的分布式文件系统,可以在大型集群中存储和处理超大型数据集。下面是HDFS流程和原理: 1. 流程 (1)客户端向NameNode请求入文件,NameNode返回一个DataNode列表,客户端接收到后与DataNode进行数据通信。 (2)客户端将数据划分为一个个数据块,并与DataNode建立连接,将数据块入DataNode。 (3)DataNode接收到数据块后,先将数据入本地磁盘,然后将数据块复制到其他DataNode上,以实现数据备份。 (4)客户端在入完数据后,向NameNode发送文件元数据,即文件名、数据块ID、数据块所在的DataNode等信息,NameNode将这些信息保存在内存中,并更新元数据信息。 2. 流程 (1)客户端向NameNode请求取文件,NameNode返回一个DataNode列表和对应的数据块位置信息。 (2)客户端与DataNode建立连接,请求数据块,DataNode将数据块返回给客户端。 (3)客户端取完所有数据块后,将数据块组合成完整的文件。 HDFS的主要原理是数据分片和复制。HDFS将大文件划分为多个数据块,每个数据块默认大小为128MB,每个数据块会复制到多个DataNode上,以实现数据备份和容错。NameNode负责管理文件系统的元数据,包括文件名、文件目录、数据块位置等信息,而DataNode则负责数据块的存储和。这种分布式存储方式可以实现高可用性和高可靠性,并且可以通过增加DataNode数量来提高存储和性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值