NameNode 和 SecondaryNameNode

1.NN 和 2NN 工作机制

        首先,我们做个假设,如果存储在NameNode节点的磁盘中,因为经常需要进行随机访问,还有响应客户请求,必然是效率过低。因此元数据需要存放在内存中。但如果存在内存中,一旦断电,元数据丢失,整个集群就无法工作了。因此产生在磁盘中备份元数据的FsImage。

        这样又会带来新的问题,当在内存中的元数据更新时,如果同时更新FsImage,就会导致效率过低,但如果不更新,就会发生一致性问题,一旦NameNode节点断电,就会产生数据丢失。因此,引入Edits文件(只进行追加操作,效率很高)。每当元数据有更新或者添加元数据时,修内存中的元数据并追加到Edits中。这样,一旦NameNode节点断电,可以通过FsImage和Edits的合并,合成元数据。

        但是,如果长时间添加数据到Edits中,会导致该文件数据过大,效率降低,而且一旦断电,恢复元数据需要的时间过长。因此,需要定期进行FsImage和Edits的合并。如果这个操作由NameNode节点完成,又会效率过低。因此,引入一个新的节点SecondaryNameNode,专门用于FsImage和Edits的合并。

1)第一阶段:NameNode 启动

        (1)第一次启动 NameNode 格式化后,创建 FsImage 和 Edits 文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。

        (2)客户端对元数据进行增删改的请求。

        (3)NameNode 记录操作日志,更新滚动日志。

        (4)NameNode 在内存中对元数据进行增删改。

2)第二阶段:Secondary NameNode  工作

        (1)Secondary NameNode 询问 NameNode 是否需要 CheckPoint。直接带回 NameNode是否检查结果。

        (2)Secondary NameNode 请求执行 CheckPoint。

        (3)NameNode 滚动正在写的 Edits 日志。

        (4)将滚动前的编辑日志和镜像文件拷贝到 SecondaryNameNode。

        (5)SecondaryNameNode 加载编辑日志和镜像文件到内存,并合并。

        (6)生成新的镜像文件 fsimage.chkpoint。 

        (7)拷贝 fsimage.chkpoint 到 NameNode。

        (8)NameNode 将 fsimage.chkpoint 重新命名成 fsimage。

2.Fsimage和Edits 解析

        NameNode 被格式化之后,将在 /opt/module/hadoop/data/tmp/dfs/name/current 目录中产生如下文件

fsimage_0000000000000000000

fsimage_0000000000000000000.md5

seen_txid

VERSION

         (1)Fsimage 文件:HDFS 文件系统元数据的一个永久性的检查点,其中包含 HDFS 文件系统的所有目录文件和 inode 的序列化信息。

        (2)Edits 文件:存放 HDFS 文件系统的所有更新操作的路径,文件系统客户端执行的所有写操作首先会被记录到 Edits 文件中。

        (3)seen_txid 文件保存的是一个数字,就是最后一个 edits_数字

        (4)每次 NameNode 启动的时候都会将 Fsimage 文件读入内存,加载 Edits 里面的更新操作,保证内存中的元数据信息是最新的、同步的,可以看成NameNode启动的时候就将 Fsimage 和 Edits 文件进行了合并。

1)oiv 查看 Fsimage 文件

        (1)查看 oiv 和 oev 命令

[xiaowu@hadoop102 current]$ hdfs

oiv            apply the offline fsimage viewer to an fsimage

oev            apply the offline edits viewer to an edits file

        (2)基本语法

        hdfs oiv -p 文件类型 -i 镜像文件 -o 转换后文件输出路径

        (3)案例实操

    [xiaowu@hadoop102 current]$ pwd

/opt/module/hadoop/data/dfs/name/current

[xiaowu@hadoop102 current]$ hdfs oiv -p XML -i fsimage_0000000000000000025 -o /opt/module/hadoop/fsimage.xml

[xiaowu@hadoop102 current]$ cat /opt/module/hadoop/fsimage.xml

        将显示的 xml 文件内容拷贝到 Idea 中创建的 xml 文件中,并格式化。部分显示结果如下。

        <inode>

   <id>16386</id>

   <type>DIRECTORY</type>

   <name>user</name>

   <mtime>1512722284477</mtime>

   <permission>atguigu:supergroup:rwxr-xr-x</permission>

   <nsquota>-1</nsquota>

   <dsquota>-1</dsquota>

</inode>

<inode>

   <id>16387</id>

   <type>DIRECTORY</type>

   <name>atguigu</name>

   <mtime>1512790549080</mtime>

   <permission>atguigu:supergroup:rwxr-xr-x</permission>

   <nsquota>-1</nsquota>

   <dsquota>-1</dsquota>

</inode>

<inode>

   <id>16389</id>

   <type>FILE</type>

   <name>wc.input</name>

   <replication>3</replication>

   <mtime>1512722322219</mtime>

   <atime>1512722321610</atime>

   <perferredBlockSize>134217728</perferredBlockSize>

   <permission>atguigu:supergroup:rw-r--r--</permission>

   <blocks>

      <block>

          <id>1073741825</id>

          <genstamp>1001</genstamp>

          <numBytes>59</numBytes>

      </block>

   </blocks>

</inode >

2) oev 查看 Edits 文件

        (1)基本语法

hdfs oev -p 文件类型 -i 编辑日志 -o 转换后文件输出路径

        (2)案例实操

     [xiaowu@hadoop102 current]$ hdfs oev -p XML -i edits_0000000000000000012-0000000000000000013 -o /opt/module/hadoop/edits.xml

[xiaowu@hadoop102 current]$ cat /opt/module/hadoop/edits.xml

        将显示的 xml 文件内容拷贝到 Idea 中创建的 xml文件中,并格式化。显示结果如下。

 <?xml version="1.0" encoding="UTF-8"?>

<EDITS>

   <EDITS_VERSION>-63</EDITS_VERSION>

   <RECORD>

      <OPCODE>OP_START_LOG_SEGMENT</OPCODE>

      <DATA>

          <TXID>129</TXID>

      </DATA>

   </RECORD>

   <RECORD>

      <OPCODE>OP_ADD</OPCODE>

      <DATA>

          <TXID>130</TXID>

          <LENGTH>0</LENGTH>

          <INODEID>16407</INODEID>

          <PATH>/hello7.txt</PATH>

          <REPLICATION>2</REPLICATION>

          <MTIME>1512943607866</MTIME>

          <ATIME>1512943607866</ATIME>

          <BLOCKSIZE>134217728</BLOCKSIZE>

          <CLIENT_NAME>DFSClient_NONMAPREDUCE_-1544295051_1</CLIENT_NAME>

          <CLIENT_MACHINE>192.168.10.102</CLIENT_MACHINE>

          <OVERWRITE>true</OVERWRITE>

          <PERMISSION_STATUS>

             <USERNAME>atguigu</USERNAME>

             <GROUPNAME>supergroup</GROUPNAME>

             <MODE>420</MODE>

          </PERMISSION_STATUS>

          <RPC_CLIENTID>908eafd4-9aec-4288-96f1-e8011d181561</RPC_CLIENTID>

          <RPC_CALLID>0</RPC_CALLID>

      </DATA>

   </RECORD>

   <RECORD>

      <OPCODE>OP_ALLOCATE_BLOCK_ID</OPCODE>

      <DATA>

          <TXID>131</TXID>

          <BLOCK_ID>1073741839</BLOCK_ID>

      </DATA>

   </RECORD>

   <RECORD>

      <OPCODE>OP_SET_GENSTAMP_V2</OPCODE>

      <DATA>

          <TXID>132</TXID>

          <GENSTAMPV2>1016</GENSTAMPV2>

      </DATA>

   </RECORD>

   <RECORD>

      <OPCODE>OP_ADD_BLOCK</OPCODE>

      <DATA>

          <TXID>133</TXID>

          <PATH>/hello7.txt</PATH>

          <BLOCK>

             <BLOCK_ID>1073741839</BLOCK_ID>

             <NUM_BYTES>0</NUM_BYTES>

             <GENSTAMP>1016</GENSTAMP>

          </BLOCK>

          <RPC_CLIENTID></RPC_CLIENTID>

          <RPC_CALLID>-2</RPC_CALLID>

      </DATA>

   </RECORD>

   <RECORD>

      <OPCODE>OP_CLOSE</OPCODE>

      <DATA>

          <TXID>134</TXID>

          <LENGTH>0</LENGTH>

          <INODEID>0</INODEID>

          <PATH>/hello7.txt</PATH>

          <REPLICATION>2</REPLICATION>

          <MTIME>1512943608761</MTIME>

          <ATIME>1512943607866</ATIME>

          <BLOCKSIZE>134217728</BLOCKSIZE>

          <CLIENT_NAME></CLIENT_NAME>

         <CLIENT_MACHINE></CLIENT_MACHINE>

          <OVERWRITE>false</OVERWRITE>

          <BLOCK>

             <BLOCK_ID>1073741839</BLOCK_ID>

             <NUM_BYTES>25</NUM_BYTES>

             <GENSTAMP>1016</GENSTAMP>

          </BLOCK>

          <PERMISSION_STATUS>

             <USERNAME>atguigu</USERNAME>

             <GROUPNAME>supergroup</GROUPNAME>

             <MODE>420</MODE>

          </PERMISSION_STATUS>

      </DATA>

   </RECORD>

</EDITS >

3.CheckPoint 时间设置

1)通常情况下,SecondaryNameNode 每隔一小时执行一次。

        [hdfs-default.xml]

 <!--  单位:秒 -->

<property>

  <name>dfs.namenode.checkpoint.period</name>

  <value>3600</value>

</property>

2)一分钟检查一次操作次数,当操作次数达到1百万时,SecondaryNameNode 执行一次。

       <property>

  <name>dfs.namenode.checkpoint.txns</name>

  <value>1000000</value>

<description>操作动作次数</description>

</property>

<property>

  <name>dfs.namenode.checkpoint.check.period</name>

  <value>60</value>

<description> 1分钟检查一次操作次数</description>

</property>

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小吴学数据

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值