HDFS 的数据写入与读取

写入过程

在这里插入图片描述

1.写入DataNode之前必须访问NameNode,NameNode允许写入后方可写入数据
2.数据文件已packet包的形式进行拆分,每64kb一个包,进行数据传输
3.向DataNode写入数据时,不是同时写入三个服务器,而是间将第一个副本写入后,由该副本所在的DataNode备份到其他服务中
4.每个packet写入完成后会进行ack回调,收到回调后会写入下一个packet,如果一个block写满后会开启下一个block块继续写入,直到数据写入完成
5.所有数据写入完成后,需要向NameNode汇报写入完成,NameNode查询确认后保存元数据信息,方可使用该文件.
NameNode查询确认时,只要有一个副本完整保存,则元数据信息即可开放使用

注意

写入三个Datanode是写入一个再进行备份。
因为现实中带宽并不是无限的,三个同时写入会降低效率。
同时向三个服务写入:

  • 带宽30M/s 一次写入三个服务器共用30M带宽, 每一个DataNode占用10M/s 传完一个10M的数据 需要1S

使用pipiline写入:

  • 带宽30M/s 先写入第一个DataNode占用完整带宽30M/s 传输一个10M的数据需要0.33秒
  • 第一个DataNode将数据备份到第二个DataNode,也是30M/s带块,传输一个10M的数据需要0.33秒
  • 第二个DataNode传输到第三个DataNode,也是0.33秒
  • 由于我们将数据拆分为多个packet包,所以可以异步备份,此时完成数据存储的总用时一定小于1s

所以在带宽有限的情况下,选择pipline传输,而且互联网传输分为上行和下行,两者互不影响,使用pipline充分利用了带宽

读取过程

在这里插入图片描述

1.NameNode返回的blcok位置列表中,不仅包含块位置还包含其副本的位置
2.1. 如果出现DataNode不可用的情况会在读取结束后向NameNode进行汇报,如果无不可用的情况不需要向NameNode进行任何汇报
3.读取文件时先读取到内存缓冲区,当将多个block读取完成后进行拼接合并后写入文件中.

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值