Hadoop之HDFS架构

目录

一、HDFS概念

二、优势

1.高容错性

2.适合批处理

3.适合大数据处理

4.流式文件访问

5.可构建在廉价机器上

三、劣势

1.不适合低延时数据访问

2.不适合小文件存储

3.不适合并发写入、文件随机修改

四、架构图

1.Client(客户端)

2.NameNode(master,它是一个主管、管理者)

3.DataNode(slave,NameNode 下达命令,DataNode 执行实际的操作)

4.Secondary NameNode(辅助者,并非 NameNode 的热备)

五、HDFS读取文件流程

步骤

六、HDFS写入文件流程

 步骤

七、副本策略(默认3副本)


一、HDFS概念

HDFS(Hadoop Distributed File System)是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开发的,可以运行于廉价的商用服务器上。它所具有的高容错、高可靠性、高可扩展性、高获得性、高吞吐率等特征为海量数据提供了不怕故障的存储,为超大数据集(Large Data Set)的应用处理带来了很多便利。

二、优势

1.高容错性

数据自动保存多个副本。它通过增加副本的形式,提高容错性。某一个副本丢失以后,它可以自动恢复,这是由 HDFS 内部机制实现的,我们不必关心

2.适合批处理

它是通过移动计算而不是移动数据,它会把数据位置暴露给计算框架

3.适合大数据处理

处理数据达到 GB、TB、甚至PB级别的数据;能够处理百万规模以上的文件数量,数量相当之大;能够处理10K节点的规模。

4.流式文件访问

一次写入,多次读取。文件一旦写入不能修改,只能追加;它能保证数据的一致性。

5.可构建在廉价机器上

三、劣势

1.不适合低延时数据访问

比如毫秒级的来存储数据,这是不行的,它做不到。它适合高吞吐率的场景,就是在某一时间内写入大量的数据。但是它在低延时的情况下是不行的,比如毫秒级以内读取数据,这样它是很难做到的。

2.不适合小文件存储

存储大量小文件(这里的小文件是指小于HDFS系统的Block大小的文件(默认64M))的话,它会占用 NameNode大量的内存来存储文件、目录和块信息。这样是不可取的,因为NameNode的内存总是有限的。

小文件存储的寻道时间会超过读取时间,它违反了HDFS的设计目标。

3.不适合并发写入、文件随机修改

一个文件只能有一个写,不允许多个线程同时写;仅支持数据 append(追加),不支持文件的随机修改。

四、架构图

1.Client(客户端)

(1)文件切分,文件上传 HDFS 的时候,Client 将文件切分成一个一个的Block,然后进行存储

(2)与 NameNode 交互,获取文件的位置信息

(3)与 DataNode 交互,读取或者写入数据

(4)Client 提供一些命令来管理 HDFS,比如启动或者关闭HDFS

2.NameNode(master,它是一个主管、管理者)

(1)管理 HDFS 的名称空间

(2)管理数据块(Block)映射信息

(3)配置副本策略

(4)处理客户端读写请求

3.DataNode(slave,NameNode 下达命令,DataNode 执行实际的操作)

(1)存储实际的数据块

(2)执行数据块的读/写操作

4.Secondary NameNode(辅助者,并非 NameNode 的热备)

(1)辅助 NameNode,分担其工作量

(2)定期合并 fsimage和fsedits,并推送给NameNode

(3)在紧急情况下,可辅助恢复 NameNode

五、HDFS读取文件流程

步骤

(1)首先调用FileSystem对象的open方法,其实获取的是一个DistributedFileSystem的实例

(2)DistributedFileSystem通过RPC(远程过程调用)获得文件的第一批block的locations,同一block按照重复数会返回多个locations,这些locations按照hadoop拓扑结构排序,距离客户端近的排在前面

(3)前两步会返回一个FSDataInputStream对象,该对象会被封装成 DFSInputStream对象,DFSInputStream可以方便的管理datanode和namenode数据流。客户端调用read方法,DFSInputStream就会找出离客户端最近的datanode并连接datanode

(4)数据从datanode源源不断的流向客户端

(5)如果第一个block块的数据读完了,就会关闭指向第一个block块的datanode连接,接着读取下一个block块。这些操作对客户端来说是透明的,从客户端的角度来看只是读一个持续不断的流

(6)如果第一批block都读完了,DFSInputStream就会去namenode拿下一批blocks的location,然后继续读,如果所有的block块都读完,这时就会关闭掉所有的流

六、HDFS写入文件流程

 步骤

(1)客户端通过调用 DistributedFileSystem 的create方法,创建一个新的文件

(2)DistributedFileSystem 通过 RPC(远程过程调用)调用 NameNode,去创建一个没有blocks关联的新文件。创建前,NameNode 会做各种校验,比如文件是否存在,客户端有无权限去创建等。如果校验通过,NameNode 就会记录下新文件,否则就会抛出IO异常

(3)前两步结束后会返回 FSDataOutputStream 的对象,和读文件的时候相似,FSDataOutputStream 被封装成 DFSOutputStream,DFSOutputStream 可以协调 NameNode和 DataNode。客户端开始写数据到DFSOutputStream,DFSOutputStream会把数据切成一个个小packet,然后排成队列 data queue

(4)DataStreamer 会去处理接受 data queue,它先问询 NameNode 这个新的 block 最适合存储的在哪几个DataNode里,比如重复数是3,那么就找到3个最适合的 DataNode,把它们排成一个 pipeline。DataStreamer 把 packet 按队列输出到管道的第一个 DataNode 中,第一个 DataNode又把 packet 输出到第二个 DataNode 中,以此类推

(5)DFSOutputStream 还有一个队列叫 ack queue,也是由 packet 组成,等待DataNode的收到响应,当pipeline中的所有DataNode都表示已经收到的时候,这时akc queue才会把对应的packet包移除掉

(6)客户端完成写数据后,调用close方法关闭写入流

(7)DataStreamer 把剩余的包都刷到 pipeline 里,然后等待 ack 信息,收到最后一个 ack 后,通知 DataNode 把文件标示为已完成

七、副本策略(默认3副本)

在大多数情况下,HDFS的副本系数是3,HDFS的存放策略是一个副本存放在本地机架节点上,另一个副本存放在同一机架的另一个节点上,第三个副本存放在在不同机架的节点上。这种策略减少了机架间的数据传输,提高了写操作的效率。机架错误的概率远比节点错误的概率小,所以这种策略不会对数据的可靠性和可用性造成影响。与此同时,因为数据只存在两个机架上,这种策略减少了读数据时需要的网络传输带宽。

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值