大数据知识点梳理-Hadoop生态之HDFS

1.1 HDFS

特别说明:“红色字体”标题均为高频面试题

  • 1.1.1 *HDFS读写流程?
  • 1.1.2 *简单说明下HDFS中,NameNode, DataNode的作用?
  • 1.1.3 *SecondaryNameNode的作用?或者是NameNode的启动过程?
  • 1.1.4集群安全模式?什么情况下会进入到安全模式?安全模式的解决办法?
  • 1.1.5 *为什么HDFS不适合存小文件?
  • 1.1.6 *HDFS支持的存储格式和压缩算法?
  • 1.1.7说一下HDFS的可靠性策略?
  • 1.1.8 *HDFS的优缺点?
  • 1.1.9 DataNode宕机后,集群能否立即将宕机的DataNode下线? DataNode下线后,集群将进行什么工作?
  • 1.1.10将一个集群重新格式化NameNode后,使用start-dfs.sh 启动集群,DataNode能启动起来么?为什么?
  • 1.1.11 DataNode在什么情况下不会备份?
  • 1.1.12 *3个DataNode中有一个DataNode出现错误会怎样?
  • 1.1.13 一个DataNode宕机,怎么一个流程恢复

 


1.1.1 *HDFS读写流程?

1.写数据流程

    (1)客户端通过Distributed FileSystem模块向NameNode请求上传文件, NameNode检查目标文件是否已存在,父目录是否存在。
    (2) NameNode返回是否可以.上传。不能上传会返回异常。
    (3)确定可以上传,客户端请求第-一个block. 上传到哪几个datanode服务器上。
    (4) NameNode 返回3个datanode节点,假定分别为dn1、dn2、 dn3。
    (5)客户端通过FSDataOutputStream模块请求dn1. 上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。
    (6) dn1、dn2、 dn3逐级应答客户端。
    (7)客户端开始往dn1.上传第一一个 block(先从磁盘读取数据放到一一个本地内存缓存),以packet (64KB) 为单位,dn1 收到-一个packet就会传给dn2,dn2传给dn3; dn1 每传一个packet会放入-一个应答队列等待应答。
    (8)当一个block传输完成之后,客户端再次请求NameNode上传第二个block的服务器。(重复执行3-7步)。

 

2.读数据流程

    (1)首先调用FileSystem.open()方法,获取到DistributedFileSystem实例。

    (2) DistributedFileSystem 向Namenode 发起RPC(远程过程调用)请求获得文件的开始部分或全部block列表,对于每个返回的块,都包含块所在的DataNode地址。这些DataNode会按照Hadoop定义的集群拓扑结构得出客户端的距离,然后再进行排序。如果客户端本身就是一个DataNode,那么他将从本地读取文件。

    (3) DistributedFileSystem 会向客户端client 返回-一个支持文件定位的输入流对象FSDatalnputStream,用于客户端读取数据。FSDatalnputStream 包含- - -个DFSInputStream 对象,这个对象用来管理DataNode和NameNode之间的I/O。

    (4)客户端调用read()方法,DFSInputStream 就会找出离客户端最近的datanode并连接datanode。

    (5)DFSInputStream对象中包含文件开始部分的数据块所在的DataNode地址,首先它会连接包含文件第-一个块最近的DataNode。随后,在数据流中重复调用read()函数,直到这个块全部读完为止。如果第一个block 块的数据读完,就会关闭指向第-一个block 块datanode连接,接着读取下-一个block块。

    (6)如果第一批block都读完了,DFSInputStream就会去NameNode拿下一批blocks 的location,然后继续读,如果所有的block块都读完,这时就会关闭掉所有的流。

【注意】
      read方法是并行的读取block 信息,不是一块-块的读取; NameNode只是返回Client请求包含块的DataNode地址,并不是返回请求块的数据。最终读取来所有的block 会合并成一个完整的:最终文件。


【面试指导&技巧】
      上面的描述较为书面化,需要按照自己的语言描述,先理解,再记忆。可以通过自己动手画流程图的方式进行理解记忆。
      总结:读数据和写数据时,重点掌握各个角色(客户端、NameNode、 DataNode) 的作用,和各个角色相互之间的关系。
      首先需要能够回答出相应的流程(合格),其次能够说出一-些细节(良好),再其次,如果被问到调用的相应方法能回答出来会更好。. 

 


1.1.2 *简单说明下HDFS中,NameNode, DataNode的作用?

1.NameNode

      就是Master, 它是一一个主管、管理者。也叫HDFS 的元数据节点。集群中只能有-一个Active的NameNode对外提供服务。
      (1)管理HDFS的名称空间(文件目录树) ; HDFS很方便的一点就是对于用户来说很友好,用户不考虑细节的话,看到的目录结构和我们使用Window和Linux 文件系统很像。
      (2)管理数据块(Block) 映射信息及副本信息; -一个文件对应的块的名字以及块被存储在哪里,以及每-一个文件备份多少都是由NameNode来管理。
      (3)处理客户端读写请求。

2.DataNode

      就是Slave。实际存储数据块的节点, NameNode下达命令,DataNode执行实际的操作。
      (1)存储实际的数据块。
      (2)执行数据块的读/写操作。

【面试指导&技巧】
问题比较基础,也比较简单。但是需要掌握。
 


1.1.3 *SecondaryNameNode的作用?或者是NameNode的启动过程?

SecondaryNameNode有两个作用,一是镜像备份,二是日志与镜像的定期合并,即合并NameNode的edit logs到fsimage文件中。

第一阶段: NameNode启动
(1)第一次启动NameNode格式化后,创建fsimage和edits文件。如果不是第一 次启动,直接加载编辑日志和镜像文件到内存。
(2)客户端对元数据进行增删改的请求。
(3) NameNode记录操作日志,更新滚动日志。
(4) NameNode 在内存中对数据进行增删改查。

第二阶段: Secondary NameNode工作
(1) Secondary NameNode询问NameNode是否需要checkpoint。直接带回NameNode是否检查结果。
(2) Secondary NameNode请求执行checkpoint。
(3) NameNode滚动正在写的edits日志。
(4)将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode。
(5) Secondary NameNode加载编辑日志和镜像文件到内存,并合并。
(6)生成新的镜像文件fsimage.chkpoint。
(7)拷贝fsimage.chkpoint到NameNode。
(8) NameNode 将fsimage.chkpoint 重新命名成fsimage。

【面试指导&技巧】
需要能够回答出SecondaryNameNode的作用,以及与NameNode的区别与联系。

 


1.1.4集群安全模式?什么情况下会进入到安全模式?安全模式的解决办法?

1.进入安全模式的情况
      集群启动时必定会进入安全模式:
      NameNode启动时,首先将映像文件(fsimage) 载入内存,并执行编辑日志(edits) 中的各项操作。--旦在内存中成功建立文件系统元数据的映像,则创建一个新的fsimage文件和一个空的编辑日志。此时,NameNode开始监听DataNode请求。但是此刻,NameNode运行在安全模式,即NameNode的文件系统对于客户端来说是只读的。
      系统中的数据块的位置并不是由NameNode维护的,而是以块列表的形式存储在DataNode中。在系统的正常操作期间,NameNode会在内存中保留所有块位置的映射信息。在安全模式下,各个DataNode会向NameNode发送最新的块列表信息,NameNode 了解到足够多的块位置信息之后,即可高效运行文件系统。
      如果满足“最小副本条件”,NameNode 会在30秒钟之后就退出安全模式。所谓的最小副本条件指的是在整个文件系统中99.9%的块满足最小副本级别(默认值:dfs.replication.min=1)。在启动一个刚刚格式化的HDFS集群时,因为系统中还没有任何块,所以NameNode不会进入安全模式。

2.异常情况下导致的安全模式
      原因: block 确实有缺失,当namenode发现集群中的block丢失数量达到一个阀值时,namenode就进入安全模式状态,不再接受客户端的数据更新请求。
 

【解决办法】
(1)调低阀值.

hdfs-site.xml中:
<name>dfs.namenode safemode.threshold-pct</ name>
<value>0.999f</value>

(2)强制离开。

hdfs dfsadmin -safemode leave

(3)重新格式化集群。
(4)修复损坏的块文件。

【基本语法】
集群处于安全模式,不能执行重要操作(写操作)。集群启动完成后,自动退出安全模式。
(1) bin/hdfs dfsadmin -safemode get (功能:查看安全模式状态)
(2) bin/hdfs dfsadmin -safemode enter (功能:进入安全模式状态)
(3) bin/hdfs dfsadmin -safemode leave (功能:离开安全模式状态)
(4) bin/hdfs dfsadmin -safemode wait (功能:等待安全模式状态)
 

【面试指导&技巧】
      当被问到什么是安全模式,需要能回答出安全模式会导致:NameNode的文件系统对于客户端来说是只读。然后可以继续讲集群会进入安全模式的两种情况:集群启动时、异常block损坏。此时回答已经差不多了。如果后面被问到如何解决这些问题,需要能够回答出相应的
解决方法:调低阀值,强制退出,修复损坏的block。
      另外本题在面试中-般问的较深时,会常被问到。
 


1.1.5 *为什么HDFS不适合存小文件?

      HDFS天生就是为存储大文件而生的,-一个块的元数据大小大概在150字节左右,存储一个小文件就要占用NameNode150字节的内存,如果存储大量的小文件很快就将NameNode内存耗尽,而整个集群存储的数据量很小,失去了HDFS 的意义,同时也会影响
NameNode的寻址时间,导致寻址时间过长。可以将数据合并上传,或者将文件append形式追加在HDFS文件末尾。


【面试指导&技巧】
      该问题的关键点是能够答出大量小文件的弊端即可:大量小文件会耗尽NameNode内存,同时还会增加NameNode的寻址时间。,
 


1.1.6 *HDFS支持的存储格式和压缩算法?

1.存储格式

(1) SequenceFile
    以二进制键值对的形式存储数据,支持三种记录存储方式。
      ➢ 无压缩: io效率较差,相比压缩,不压缩的情况下没有什么优势。
      ➢ 记录级压缩: 对每条记录都压缩,这种压缩效率比较一-般。
      ➢ 块级压缩: 这里的块不同于HDFS中的块的概念.这种方式会将达到指定块大小的二进制数据压缩为一一个块。

(2) Avro
      将数据定义和数据-起存储在一条消 息中,其中数据定义以JSON格式存储,数据以二进制格式存储。Avro 标记用于将大型数据集分割成适合MapReduce处理的子集。

(3) RCFile
      以列格式保存每个行组数据。它不是存储第一行然后 是第二行,而是存储所有行上的第1列,然后是所行上的第2列,以此类推。

(4) Parquet
      是Hadoop的一种列存储格式,提供了高效的编码和压缩方案。

2.压缩算法

(1) Gzip 压缩
      优点:压缩率比较高,而且压缩/解压速度也比较快;Hadoop本身支持,在应用中处理gzip格式的文件就和直接处理文本-样;大部分linux 系统都自带gzip命令,使用方便.
      缺点:不支持split.
      应用场景:当每个文件压缩之 后在130M以内的(1个块大小内),都可以考虑用gzip压缩格式。例如说一 -天或者一个小时的日 志压缩成一一个gzip文件,运行MapReduce 程序的时候通过多个gzip 文件达到并发。Hive 程序,streaming 程序,和Java 写的MapReduce程序完全和文本处理一样, 压缩之后原来的程序不需要做任何修改。

(2) Bzip2 压缩
      优点:支持split; 具有很高的压缩率,比gzip 压缩率都高; Hadoop 本身支持,但不支持native;在linux 系统下自带bzip2 命令,使用方便。
      缺点:压缩/解压速度慢;不支持native。
      应用场景:适合对速度要求不高,但需要较高的压缩率的时候,可以作为MapReduce作业的输出格式;或者输出之后的数据比较大,处理之后的数据需要压缩存档减少磁盘空间并且以后数据用得比较少的情况;或者对单个很大的文本文件想压缩减少存储空间,同时又需要支持split, 而且兼容之前的应用程序(即应用程序不需要修改)的情况。

(3) Lzo 压缩
       优点:压缩/解压速度也比较快,合理的压缩率;支持split, 是Hadoop中最流行的压缩格式;可以在linux 系统下安装lzop 命令,使用方便。
       缺点:压缩率比gzip 要低- -些;Hadoop本身不支持,需要安装;在应用中对lzo 格式的文件需要做一些特殊处理(为了支持split需要建索引,还需要指定inputformat为Izo格式)。
应用场景: - - 个很大的文本文件,压缩之后还大于200M以上的可以考虑,而且单个
文件越大,lzo 优点越越明显。

(4) Snappy 压缩
      优点:高速压缩速度和合理的压缩率。
      缺点:不支持split; 压缩率比gzip 要低; Hadoop 本身不支持,需要安装;
      应用场景:当MapReduce作业的Map输出的数据比较大的时候,作为Map到Reduce的中间数据的压缩格式;或者作为一个MapReduce作业的输出和另外一个MapReduce作业的输入。

【面试指导&技巧】
      存储格式方面,需要能够答出列出的这几种存储格式,另外--般面试官会继续问你项目中使用了哪-种(哪几种),需要能够结合自己项目,说出哪里使用了哪种格式,并讲一下它的特点。
      同样的,压缩算法方面,需要能够答出列出的这几种常见算法。然后结合自己项目中使
用的是哪一种,说出其优缺点。--般LZO和Snappy使用的比较多,但是需要注意Snappy不是cdh自带的。
 


1.1.7说一下HDFS的可靠性策略?

1.文件完整性
(1)在文件建立时,每个数据块都产生校验和,校验和会保存在.meta文件内。
(2)客户端获取数据时可以检查校验和是否相同,从而发现数据块是否损坏。
(3)如果正在读取的数据块损坏,则可以继续读取其它副本。NameNode 标记该块已
经损坏,然后复制block 达到预期设置的文件备份数。
(4) DataNode 在其文件创建后三周验证其checksum。


2.网络或者机器失效时
(1)副本冗余。
(2)机架感知策略(副本放置策略)。
(3)心跳机制策略。


3.NameNode挂掉时
(1)主备切换(高可用)。
(2)镜像文件和操作日志磁盘存储。
(3)镜像文件和操作日志可以存储多份,多磁盘存储。
 

4.其他保障可靠性机制
(1)快照(和虚拟机快照意义相同,保存了系统某-一时刻的影像,可以还原到该时)。
(2)回收站机制。
(3)安全模式。


【面试指导&技巧】
该问题一般问的比较深的时候会被问到。能够结合上面列出的几种情况,进行回答相应情况下的解决方案即可。

 


1.1.8 *HDFS的优缺点?

1.HDFS优点
➢ 高容错性: 数据自动保存多个副本,副本丢失后,会自动恢复。
➢ 适合批处理: 移动计算而非数据、数据位置暴露给计算框架。
➢ 适合大数据处理: GB、TB、甚至PB级数据、百万规模以上的文件数量,1000以上节点规模。
➢ 流式文件访问:一次性写入,多次读取;保证数据一 致性。
➢ 可构建在廉价机器上:通过多副本提高可靠性,提供了容错和恢复机制。

2.HDFS缺点
➢ 不适合低延迟数据访问:比如毫秒级、低延迟与高吞吐率。
➢ 不适合小文件存取: 占用NameNode大量内存,寻道时间超过读取时间。
➢ 不适合并发写入、文件随机修改: -一个文件只能有-一个写者,仅支持append.

【面试指导&技巧】
      需要能够回答出主要优点:适合大数据存储、高容错、保证数据一致性。
      需要能够回答出主要缺点:不适合小文件存储、不适合并发写入、不适合低延时数据访问。
      上面是第一层回答,深入问的话,会问为什么能高容错?为什么适合大数据存储?此类内容,也需要能够回答。所以建议回答时,在讲高容错时,直接说出原因,因为有多副本机制,数据存储时会自动保存多副本,副本丢失后会自动恢复,这样 才算是比较好的回答,不会显得回答单薄。
 


1.1.9 DataNode宕机后,集群能否立即将宕机的DataNode下线? DataNode下线后,集群将进行什么工作?

1.不能立即下线,需要等待10分30秒。
2.dataNode下线后,集群将复制下线的datanode管理的块。

【面试指导&技巧】
该问题比较简单,了 解即可。

 


1.1.10将一个集群重新格式化NameNode后,使用start-dfs.sh 启动集群,DataNode能启动起来么?为什么?

    不能, namendoe重新格式化后, clusterid改变了,而datanode还保存着原来的clusterid。

【面试指导&技巧】
    这其实是一个自己在搭建集群过程中经常会遇到的问题,多次将NameNode格式化就无法启动DataNode。需要在工作中注意,不要多次格式化NameNode。

 


1.1.11 DataNode在什么情况下不会备份?

    DataNode在强制关闭或者非正常断电不会备份。

【面试指导&技巧】
面试比较少问,比较简单,了 解即可。

 


1.1.12 *3个DataNode中有一个DataNode出现错误会怎样?

    这个DataNode的数据会在其他的DataNode.上重新做备份。

 


1.1.13 -个DataNode宕机,怎么一个流程恢复

    将DataNode数据删除,重新当成新节点加入即可。
 


Hadoop生态之HDFS结束!

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值