HDFS写数据流程

本文详细介绍了HDFS(Hadoop Distributed File System)的数据写入过程,包括客户端与NameNode交互确认文件路径及上传权限,NameNode指定DataNode形成数据传输Pipeline,以及数据包(Packet)在DataNode之间的传输步骤。理解这一流程对于掌握HDFS的工作原理至关重要。
摘要由CSDN通过智能技术生成

HDFS写数据流程

Namelode:是HDFS中负责namespace管理的节点,保存集群中所储存的所有文件的元数据信息

Datanode:是一个在HDFS实例中单独机上运行的一个节点;

packet:数据包

 1.向namelode请求上传文件,namenode检查目录文件上传途径是否存在,文件是否存在;

2.nomenode做出应答(是否可以上传);

3.客户端切分文件,请求上传第一个block;

4.namenode返回dn(datanode)1、dn2、dn3,让用户上传数据;

5.客户端请求dn1上传数据(建立pipeline),电脑收到后发送给dn2,dn2再发送给dn3,建立完成pipeline,再依次返回客户端;

6.b开始传输block1(以pocket为单位)dn1-dn2-dn3依次;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值