Hadoop——(HDFS存储机制(读写),NameNode如何管理和存储元数据,HDFS元数据管理流程,NameNode与SecondaryNameNode,Fsimage与Edits文件解析)

HDFS存储机制(读写)

HDFS的数据流单位

  1. 在HDFSClient写HDFS的过程中,HDFS的数据流单位:block、packet与chunk;
  2. block是最大的一个单位,它是最终存储于DataNode上的数据粒度,由dfs.block.size参数决定,默认是128M;(这个参数由客户端配置决定;)
  3. packet是中等的一个单位,它是数据由DFSClient流向DataNode的粒度,以dfs.write.packet.size参数为参考值,默认是64K;注:这个参数为参考值,是指真正在进行数据传输时,会以它为基准进行调整,调整的原因是一个packet有特定的结构,调整的目标是这个packet的大小刚好包含结构中的所有成员,同时也保证写到DataNode后当前block的大小不超过设定值;
  4. chunk是最小的一个单位,它是DFSClient到DataNode数据传输中进行数据校验的粒度,由io.bytes.per.checksum参数决定,默认是512B
  5. ps:事实上一个chunk还包含4B的校验值,因而chunk写入packet时是516B;数据与检验值的比值为128:1,所以对于一个128M的block会有一个1M的校验文件与之对应;

HDFS存储机制,包括HDFS的写入数据过程和读取数据过程两部分

HDFS读数据流程
在这里插入图片描述

  1. 客户端通过Distributed FileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。
  2. 挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据。
  3. DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来做校验)。
  4. 客户端以Packet为单位接收,先在本地缓存,然后写入目标文件。

PS:写过程中的三层buffer(了解)

  1. 写过程中会以chunk、packet及packet queue三个粒度做三层缓存;当数据流入DFSOutputStream时,DFSOutputStream内会有一个chunk大小的buf,当数据写满这个buf(或遇到强制flush),会计算checksum值,然后填塞进packet
  2. 当一个chunk填塞进入packet后,仍然不会立即发送,而是累积到一个packet填满后,将这个packet放入dataqueue队列
  3. 进入dataqueue队列的packet会被另一线程按序取出发送到datanode
  4. 注:生产者消费者模型,阻塞生产者的条件是dataqueue与ackqueue之和超过一个block的packet上限
    在这里插入图片描述

HDFS写数据流程

在这里插入图片描述

  1. 客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已经存在,父目录是否存在,如果父目录存在,NameNode返回是否可以上传。
  2. 客户端请求第一个 Block上传到哪几个DataNode服务器上。NameNode返回3个DataNode节点,分别为dn1、dn2、dn3。
  3. 客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。此时,dn1、dn2、dn3逐级应答客户端
  4. 客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个确认队列等待确认。
  5. 当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。(重复执行3-7步)。

NameNode如何管理和存储元数据?

  1. 计算机中存储数据两种:内存或者是磁盘。
  2. 元数据存储磁盘:存储磁盘无法面对客户端对元数据信息的任意的快速低延迟的响应,但是安全性高
  3. 元数据存储内存:元数据存放内存,可以高效的查询以及快速响应客户端的查询请求,数据保存在内存,如果断电,内存中的数据全部丢失。
  4. 解决方案:内存+磁盘;NameNode内存+FsImage的文件(磁盘),即产生在磁盘中备份元数据的FsImage。

NameNode在磁盘中备份元数据的FsImage导致的问题!

  1. 当在内存中的元数据更新时,如果同时更新FsImage,就会导致效率过低。如果不更新,就会发生一致性问题,一旦NameNode节点断电,就会产生数据丢失。
  2. 解决方案:引入Edits文件(只进行追加操作,效率很高)。每当元数据有更新或者添加元数据时,修改内存中的元数据并追加到Edits中。这样,一旦NameNode节点断电,可以通过FsImage和Edits的合并,合成元数据。这样,一旦NameNode节点断电,可以通过FsImage和Edits的合并,合成元数据。

解决NameNode引入Edits文件导致的问题!

  1. 如果长时间添加数据到Edits中,会导致该文件数据过大,效率降低,而且一旦断电,恢复元数据需要的时间过长。因此,需要定期进行FsImage和Edits的合并,如果这个操作由NameNode节点完成,又会效率过低。
  2. 解决方案:引入一个新的节点SecondaryNamenode,专门用于FsImage和Edits的合并。

磁盘和内存中元数据如何划分?

  1. 两个数据一模一样,还是两个数据合并到一起才是一份完整的数据呢?
  2. 一模一样时:client如果对元数据进行增删改操作,需要保证两个数据的一致性。FsImage文件操作起来效率也不高。
  3. 两个合并=完整数据:NameNode引入了一个edits文件(日志文件:只能追加写入)edits文件记录的是client的增删改操作,不再选择让NameNode把数据dump出来形成FsImage文件(这种操作是比较消耗资源)

HDFS元数据管理流程

在这里插入图片描述

  1. 第一阶段:NameNode启动
    1. 第一次启动NameNode格式化后,创建Fsimage和Edits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。
    2. 客户端对元数据进行增删改的请求,NameNode记录操作日志,更新滚动日志,NameNode在内存中对数据进行增删改。
  2. 第二阶段:Secondary NameNode工作
    1. Secondary NameNode询问NameNode是否需要CheckPoint。直接带回NameNode是否执行检查点操作结果
    2. Secondary NameNode请求执行CheckPoint。NameNode滚动正在写的Edits日志。将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode。
    3. Secondary NameNode加载编辑日志和镜像文件到内存,并合并生成新的镜像文件fsimage.chkpoint。拷贝fsimage.chkpoint到NameNode。NameNode将fsimage.chkpoint重新命名成fsimage。

NameNode与SecondaryNameNode

NameNode与 Secondary NameNode两者之间的区别

  1. NameNode负责管理整个文件系统的元数据,以及每一个路径(文件)所对应的数据块信息。
  2. SecondaryNameNode主要用于定期合并命名空间镜像和命名空间镜像的编辑日志

NameNode与 Secondary NameNode两者之间的联系

  1. SecondaryNameNode中保存了一份和namenode一致的镜像文件(fsimage)和编辑日志(edits)。
  2. 在主namenode发生故障时(假设没有及时备份数据),可以从SecondaryNameNode恢复数据。

NameNode与 Secondary NameNode工作机制详解

  1. Fsimage:NameNode内存中元数据序列化后形成的文件。
  2. Edits:记录客户端更新元数据信息的每一步操作(可通过Edits运算出元数据)
  3. NameNode启动时,先滚动Edits并生成一个空的edits.inprogress,然后加载Edits和Fsimage到内存中,此时NameNode内存就持有最新的元数据信息。
  4. Client开始对NameNode发送元数据的增删改的请求,这些请求的操作首先会被记录到edits.inprogress中(查询元数据的操作不会被记录在Edits中,因为查询操作不会更改元数据信息),如果此时NameNode挂掉,重启后会从Edits中读取元数据的信息。然后,NameNode会在内存中执行元数据的增删改的操作。
  5. 由于Edits中记录的操作会越来越多,Edits文件会越来越大,导致NameNode在启动加载Edits时会很慢,所以需要对Edits和Fsimage进行合并(所谓合并,就是将Edits和Fsimage加载到内存中,照着Edits中的操作一步步执行,最终形成新的Fsimage)
  6. SecondaryNameNode的作用就是帮助NameNode进行Edits和Fsimage的合并工作。
  7. SecondaryNameNode首先会询问NameNode是否需要CheckPoint(触发CheckPoint需要满足两个条件中的任意一个,定时时间到和Edits中数据写满了)。直接带回NameNode是否检查结果。SecondaryNameNode执行CheckPoint操作,首先会让NameNode滚动Edits并生成一个空的edits.inprogress,滚动Edits的目的是给Edits打个标记,以后所有新的操作都写入edits.inprogress,其他未合并的Edits和Fsimage会拷贝到SecondaryNameNode的本地,然后将拷贝的Edits和Fsimage加载到内存中进行合并,生成fsimage.chkpoint,
  8. 将fsimage.chkpoint拷贝给NameNode,重命名为Fsimage后替换掉原来的Fsimage。NameNode在启动时就只需要加载之前未合并的Edits和Fsimage即可,因为合并过的Edits中的元数据信息已经被记录在Fsimage中

Fsimage与Edits文件解析

  1. NameNode在执行格式化之后,会在/data/tmp/dfs/name/current目录下产生如下文件在这里插入图片描述
  2. Fsimage文件:HDFS文件系统元数据的一个永久性的检查点,包含了HDFS文件系统所有目录以及文件相关信息(Block数量,副本数量,权限等信息)
  3. Edits文件 :存储了客户端对HDFS文件系统所有的更新操作记录的文件,Client对HDFS文件系统所有的更新操作都会被记录到Edits文件中(不包括查询操作)
  4. seen_txid:该文件是保存了一个数字,数字对应着最后一个Edits文件名的数字
  5. VERSION:该文件记录namenode的一些版本号信息,比如:CusterId,namespaceID等
  6. 每次NameNode启动的时候都会将Fsimage文件读入内存,加载Edits里面的更新操作,保存内存中的元数据信息是最新的,同步的,可以看成NsmeNode启动的时候就将Fsimage和Edits文件进行了合并

Fsimage中为什么没有记录块所对应DataNode?

1.

  1. 在内存元数据中是有记录块所对应的dn信息,但是fsimage中就剔除了这个信息;
  2. HDFS集群在启动的时候会加载image以及edits文件,block对应的dn信息都没有记录,集群启动时会有一个安全模式(safemode),安全模式就是为了让dn汇报自己当前所持有的block信息给nn来补全元数据。
  3. 后续每隔一段时间dn都要汇报自己持有的block信息。

Edits文件解析

  1. Edits中只记录了更新相关的操作,查询或者下载文件并不会记录在内
  2. nn启动时需要加载fsimage文件以及那些没有被2nn进行合并的edits文件
  3. 通过fsimage文件自身的编号来确定哪些edits已经被合并
    在这里插入图片描述

HAnamenode 是如何工作的?

ZKFailoverController主要职责

  1. 健康监测:周期性的向它监控的NN发送健康探测命令,从而来确定某个NameNode是否处于健康状态,如果机器宕机,心跳失败,那么zkfc就会标记它处于一个不健康的状态。
  2. 会话管理:如果NN是健康的,zkfc就会在zookeeper中保持一个打开的会话,如果NameNode同时还是Active状态的,那么zkfc还会在Zookeeper中占有一个类型为短暂类型的znode,当这个NN挂掉时,这个znode将会被删除,然后备用的NN,将会得到这把锁,升级为主NN,同时标记状态为Active。
  3. 当宕机的NN新启动时,它会再次注册zookeper,发现已经有znode锁了,便会自动变为Standby状态,如此往复循环,保证高可靠,需要注意,目前仅仅支持最多配置2个NN。
  4. master选举:如上所述,通过在zookeeper中维持一个短暂类型的znode,来实现抢占式的锁机制,从而判断那个NameNode为Active状态

在这里插入图片描述

谈谈Hadoop序列化和反序列化及自定义bean对象实现序列化?

  1. 序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储(持久化)和网络传输。
  2. 反序列化就是将收到字节序列(或其他数据传输协议)或者是硬盘的持久化数据,转换成内存中的对象。
  3. Java的序列化是一个重量级序列化框架(Serializable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,header,继承体系等),不便于在网络中高效传输。所以,hadoop自己开发了一套序列化机制(Writable),精简、高效。
  4. 自定义bean对象要想序列化传输步骤及注意事项:
    1. 必须实现Writable接口
    2. 反序列化时,需要反射调用空参构造函数,所以必须有空参构造
    3. 重写序列化方法
    4. 重写反序列化方法
    5. 注意反序列化的顺序和序列化的顺序完全一致
    6. 要想把结果显示在文件中,需要重写toString(),且用"\t"分开,方便后续用
    7. 如果需要将自定义的bean放在key中传输,则还需要实现comparable接口,因为mapreduce框中的shuffle过程一定会对key进行排序
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值