hadoop集群高可用配置及问题(中)

接上篇

在hdfs格式化时报错

1.删除data及logs目录,重新进行hdfs格式化

 控制台打印信息就是这么丝滑

 2.再启动namenode

日志中信息

3.在nn2和nn3上同步nn1的元数据信息

控制台打印信息

 

 4.在nn2和nn3上启动namenode

 

5.查看web端hdfs

 三台均显示standby

6.在所有节点启动datanode

 7.将bigdata1切换为active

 8.查看bigdata1的hdfs界面

 9.配置HDFS-HA自动故障转移(三台)

core-site.xml

<!-- 指定zkfc要连接的zkServer地址 -->
<property>
	<name>ha.zookeeper.quorum</name>
	<value>bigdata1:2181,bigdata2:2181,bigdata3:2181</value>
</property>

 hdfs-site.xml

<!-- 启用nn故障自动转移 -->
<property>
	<name>dfs.ha.automatic-failover.enabled</name>
	<value>true</value>
</property>

10.启动zookeeper

 11.再初始化HA在Zookeeper中状态

控制台打印信息: 

 12.启动HDFS服务

 13.验证hdfs高可用

1)查看网页端三台Namenode的状态

2)将active的namenode节点进程kill,再次查看网页端三台Namenode的状态变化

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值