【第2期】如何将NameNode和SecondaryNameNode分开不同节点

一、当前情况

    根据【第1期】教程的部署,我们已经可以使用Docker启动1台Master主机和3台Slave主机。但很快就可以发现,启动hadoop后,NameNode进行和SecondaryNameNode进程都存在于Master主机上,并无法实现备机功能。也就是说,如果Master主机宕掉了,实际上整个集群就完了。因此,将NameNode和SecondaryNameNode进程分开到不同的节点主机上是有必要的。

    Hadoop-Master主机下查看进程

    Hadoop-Slave1主机下查看进程

    以下我们配置将SecondaryNameNode进程运行到Slave1主机上


 

二、配置Hadoop(使用hadoop用户)

1.1 关闭hadoop

su hadoop
sh /opt/hadoop/sbin/stop-all.sh

1.2 修改hdfs-site.xml

    在配置文件hdfs-site.xml新增属性配置

vi /opt/hadoop/etc/hadoop/hdfs-site.xml
------- 文件内容 -------
<property>
<name>dfs.http.address</name>
<value>hadoop-master.richardchan.nom:50070</value>
<description>
The address and the base port where the dfs namenode web ui will listen on.
If the port is 0 then the server will start on a free port.
</description>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop-slave1.richardchan.nom:50090</value>
</property>

1.3 修改core-site.xml

   在配置文件core-site.xml新增属性配置

vi /opt/hadoop/etc/hadoop/core-site.xml
------ 文件内容 ------
<property>
  <name>fs.checkpoint.period</name>
  <value>3600</value>
  <description>The number of seconds between two periodic checkpoints.
  </description>
</property>
<property>
  <name>fs.checkpoint.size</name>
  <value>67108864</value>
</property>

三、使用测试

3.1 启动hadoop

sh /opt/hadoop/sbin/start-all.sh

3.2 查看进程

  Master主机

  Slave1主机

 

转载于:https://www.cnblogs.com/bubi/p/5412447.html

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值