hadoop之hdfs的3个节点以同一进程启动

HDFS三个进程启动都以xxxxxxxx启动:

以我自己的机器名称为例:
HDFS三个进程启动以hadoop001启动:etc/hadoop目录下设置

之前在部署hdfs时候修改了core-site.xml文件slaves文件
(1)在core-site.xml文件中修改fs.defaultFS参数为hadoop001,使NameNode进程以hadoop001启动。
(2)在slaves文件中将localhost改为hadoop001,使DataNode进程以hadoop001启动。
(3)SecondaryNameNode进程默认是0.0.0.0:0启动,我们就值需修改SecondaryNameNode进程
首先在官网hdfs组件服务hdfs-default.xml找dfs.namenode.secondary.http-address和dfs.namenode.secondary.https-address,查看并复制
在这里插入图片描述
在这里插入图片描述
进入到hdfs-site .xml文件
[hadoop@hadoop001 hadoop-2.6.0-cdh5.7.0]$ vi hdfs-site .xml
因为之前hdfs-site .xml文件也是修改过的,不能删掉任何内容,只需要在最后一个 </ configuration>前面添加以下内容:
< property>
< name>dfs.namenode.secondary.http-address</ name>
< value>hadoop001:50090</ value>
</ property>
< property>
< name>dfs.namenode.secondary.https-address</ name>
< value>hadoop001:50091</ value>
</ property>
在这里插入图片描述

之后重启hdfs:可以看到SecondaryNameNode是由启动的:
[hadoop@hadoop001 hadoop-2.6.0-cdh5.7.0]$ sbin/start-dfs.sh
在这里插入图片描述

因为我在设置之前没有关掉hdfs,所以重启时NameNode和DataNode是已经在运行状态!

over✌

----------------------------------------------------------未完待续----------------------------------------------

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值