图解HDFS读写文件机制

HDFS写文件流程

在这里插入图片描述
关键点:

  1. hadoop2.x版本默认块大小为128M,所以预处理文件时,对200M的文件分块就是分成128M和72M。
  2. 第二步前,namenode需要根据client传递过来的消息来判断是否可以写文件,判断依据有是否存在目录,是否已存在文件等。
  3. namenode选取datanode时可以遵循机架感知策略来选择机器。默认情况没有开启,是随机选择机器。如果需要开启,需要在hadoop-site.xml文件添加,value指定一个可执行程序,输入为datenode,输出为机架。需要人为编写,一般策略是第一个副本放在一个机架,第二个副本放在和每一个副本同一个机架的机器上,第三个副本放在另一个机架的机器上。
  4. block传输完毕后,DataNode通知NameNode是为了让NameNode回滚日志,记录更新。

hdfs读数据流程

在这里插入图片描述

关键点:

  1. 第一步请求下载文件时,namenode会判断你的用户是否有可读权限,指定路径是否有文件。
  2. client向datanode读数据时,是
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值