HDFS文件上传机制

本文深入解析HDFS的工作原理,包括其集群架构、文件上传机制及数据块管理。HDFS由NameNode和DataNode组成,前者管理元数据,后者存储文件数据块。文件按128MB切块,副本分散存储于不同DataNode,确保数据冗余。NameNode通过DataNode上报的信息维护副本状态,保障数据完整。
摘要由CSDN通过智能技术生成

以图的形式详细介绍一下HDFS作为分布式文件管理的文件上传机制吧,毕竟文字描述太生硬,不好理解

先大概介绍以下HDFS

  1. hdfs集群分为namenode和datenode(secondary namenode)
  2. NameNode负责管理整个文件系统的元数据(记录数据的存放位置)
  3. DataNode不负责切块,只负责管理用户的文件数据块
  4. 文件会按照固定大小128M(blocksize)切成若干块后分布式存放在若干台datanode上
  5. 每一个文件块又可以有多个副本,并存放在不同datanode上,相同副本不会放在相同datanode上
  6. DataNode会定期向NameNode汇报自身所保存的文件的block信息,防止因为datanode机器损坏而造成副本数量减少,namenode就会指令在其他机器上复制丢失的副本到其他机器上,以维持副本数量,而namenode则负责记录文件副本的数量和位置
  7. HDFS的内部工作机制对客户端保持透明,客户端请求访问HDFS都是通过向namenode申请进行的

以下是详细执行流程图
HDFS文件上传机制

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值