HDFS基本原理--工作机制

HDFS基本原理

1.NameNode概述
1. NameNode是HDFS的核心;
2. NameNode 也称为Master;
3. NameNode 仅存储HDFS的元数据:文件系统中所有文件的目录树并跟踪整个集群中的文件。
4. NameNode ==不存储实际数据或数据集==。数据本身实际存储在DataNodes中。
5. NameNode 知道HDFS 中任何给定文件的块列表及其位置。使用此信NameNode知道如何从块中构建文件。
6. NameNode 并不持久化存储每个文件中各个块所在的DataNode的位置信息,这些信息会在系统启动时从数据节点重建。
7. NameNode 对于HDFS至关重要,当NameNode关闭时,HDFS / Hadoop 集群无
 法访问。
8. NameNode是Hadoop集群中的单点故障。
9. NameNode 所在机器通常会配置有大量内存(RAM)。

NameNode目录树

2.DataNode 概述
  1. DataNode 负责将实际数据存储在HDFS中;
  2. DataNode也称为Slave;
  3. NameNode 和DataNode会保持不断通信;
  4. DataNode 启动时,它将自已发布到NameNode并汇报自己负责持有的块列表。
  5. 当某个DataNode关闭时,它不会影响数据或群集的可用性;NameNode将安排由其他DataNode管理的块进行副本复制;
  6. DataNode 所在机器通常配置有大量的硬盘空间。因为实际数据存储在DataNode中;
  7. DataNode 会定期(dfs. heartbeat. interval配置项配置,默认是1秒)向NameNode发送心跳,如果NameNode长时间没有接受到DataNode发送的心跳,NameNode 就会认为该DataNode失效。
  8. block 汇报时间间隔取参数dfs. blockreport. intervalMsec, 参数未配置的话默认为6小时。
3.HDFS工作机制

​ NameNode负责管理整个文件系统元数据;

​ DataNode 负责管理具体文件数据块存储;

​ Secondary NameNode协助NameNode进行元数据的备份。

​ HDFS的内部工作机制对客户端保持透明,客户端请求访问HDFS都是通过向

NameNode申请来进行。

​ HDFS采用master/slave架构。一个HDFS集群是由一个Namenode和一定数目的Datanodes组成。Namenode是一个中心服务器,负责管理文件系统的名字空间(namespace)以及客户端对文件的访问。集群中的Datanode一般是一个节点一个,负责管理它所在节点上的存储。HDFS暴露了文件系统的名字空间,用户能够以文件的形式在上面存储数据。从内部看,一个文件其实被分成一个或多个数据块,这些块存储在一组Datanode上。Namenode执行文件系统的名字空间操作,比如打开、关闭、重命名文件或目录。它也负责确定数据块到具体Datanode节点的映射。Datanode负责处理文件系统客户端的读写请求。在Namenode的统一调度下进行数据块的创建、删除和复制。

HDFS结构

3.1HDFS 写数据流程

详细步骤解析:

  1. client发起文件上传请求,通过RPC与NameNode建立通讯,NameNode
    检查日标文件是否已存在,父目录是否存在,返回是否可以上传:
  2. client 请求第一个block该传输到哪些DataNode服务器上;
  3. NameNode 根据配置文件中指定的备份数量及机架感知原理进行文件分
    配,返回可用的DataNode的地址如: A, B, C;
    注: Nedop在设计时考虑利数据的安全与高效,数据文件默认在HDFS上存放
    三份,存储策略为本增一份, 网机架内其它某一节点上一份,不网机架的某一
    节点上一份。
  4. client 请求3台DataNode中的一台A上传数据(本质上是一个RPC调用,建立pipeline). A收到请求会继续调用B,然后B调用C,将整个pipeline建立完成,后逐级返回client;
  5. client 开始往A上传第一个block ( 先从磁盘读取数据放到一个本地内存缓存),以packet为单位(默认64K), A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答。
  6. 数据被分割成一个个packet 数据包在pipeline上依次传输,在pipeline反方向上,逐个发送ack(命令正确应答),最终由pipeline中的第一个DataNode节点A将pipeline ack发送给client;
  7. 当一个block传输完成后,client再次请求NameNode上传第二个block到服务器。

HDFS写文件流程

3.2HDFS 读数据流程

详细步骤解析:

  1. Client向NameNode发起RPC请求,来确定请求文件block所在的位置;
  2. NameNode会视情况返回文件的部分或者全部block列表,对于每个block,
    NameNode都会返回含有该block副本的DataNode地址;
  3. 这些返回的DN地址,会按照集群拓扑结构得出DataNode 与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离CIient近的排靠前;心跳机制中超时汇报的DN状态为STALE,这样的排靠后;
  4. Client选取排序靠前的DataNode来读取block, 如果客户端本身就是DataNode,那么将从本地直接获取数据;
  5. 底层上本质是建立Socket Stream (FSDataInputStream),重复的调用父类DataInputStream的read方法,直到这个块上的数据读取完毕;
  6. 当读完列表的block后,若文件读取还没有结束,客户端会继续向NameNode获取下一批的block列表;
  7. 读取完一个block都会进行checksum验证,如果读取DataNode时出现错误,客户端会通知NameNode, 然后再从下一个拥有该block 副本的DataNode继续读。
  8. read方法是并行的读取block信息,不是一块一块的读取;NameNode只是返回Client请求包含块的DataNode地址,并不是返回请求块的数据;
  9. 最终读取来的所有block会合并为一个完整的最终文件。
    HDFS读文件流程
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MelodyYN

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值