hdfs 上传文件(写数据)流程

hdfs 上传文件(写数据)流程

需求:向hdfs上传 300M文件text.txt 到 /mydir 目录
注意:客户端会把300M文件切分为128M(blk_1)、128M(blk_2)、44M(blk_3)三块,切块大小需要根据hadoop的配置来,2.x以上默认是128M

  • 1、向namenode请求上传文件 text.txt 到 hdfs的/mydir目录下
  • 2、namenode返回允许上传的状态
  • 3、上传text.txt的blk_1
  • 4、namenode返回上传的datanode路径{blk_1,[dn1,dn2,dn3]}
  • 5、client请求3台dn中的一台dn1上传数据(本质上是一个RPC调用,建立pipeline),dn1收到请求会继续调用dn2,然后dn2调用dn3,将整个pipeline建立完成,逐级返回客户端
  • 6、client开始往dn1上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,dn1收到一个packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答
  • 7、当一个block传输完成之后,client再次请求namenode上传第二个block的服务器

基本流程如图所示:

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值