HDFS写数据流程

HDFS写数据流程
第一步 客户端通过调用HDFS创建文件,用RPC向namenode发起文件上传请求
第二步 namenode检测客户端是否具有上传权限,并向客户端返回结果,将文件切分成若干block
.第三步 客户端收到namenode的可以上传回应后,向namenode请求上传第一个 block
第四步 namedode根据集群中 datanode的信息与机器感知,选出可以上传的三个主机,并向客户端返回datanode列表。因为考虑数据的安全性,数据文件在HDFS上默认存三份,本地一份,其他机架的某一节点一份,同机架不同节点一份。
第五步 客户端根据列表向datanode建立数据流管道,不同datanode之间也建立pipieline
第六步 客户端向datanode传输数据,将第一个block划分Packet(64K大小)传输
第七步 第一个 datedode将packet的信息进行缓存,通过管道依次传到每一个datadode, 当第一个block 信息完全传输完后,最后一个datanode通过pipieline向前一个datanode发送应答,依次将应答传递给客户端。客户端继续向namenode申请上传第二个block信息并重复第六七步,直到所有划分好的block上传完
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值