hadoop格式化失败-拒绝连接

hadoop格式化失败-拒绝连接

1.项目场景

搭建hadoop高可用集群

包含两个namenode,该集群结合zookeeper自动故障转移功能

2.问题描述

当我们安装,配置Hadoop之后,启动zookeeper都没出现问题但是初始化出现了问题该如何解决
拒绝连接

3.原因分析

1.配置文件

配置文件(hdfs-site.xml core-site.xml yarn-site.xml mapred-site.xml hadoop-env.sh mapred-env.sh yarn-env.sh)这个需自己检查

2.journalnode没启动

[注意]:集群 搭建完成之后,由于第一次启动Hadoop,故启动之前需格式化namenode,而格式化之前需启动journalnode(3个节点分别执行)之后不需格式化和启动journalnode。

hadoop-daemon.sh start journalnode

启动journalnode

解决方案

当我们发现Hadoop格式化失败并且是拒绝连接时

1.停止当前所有进程

stop-all.sh

停止进程
通过jps命令查看当前进程是否全部关闭
查看进程
如果zookeeper进程没有停止可通过kill -9 3031将其杀死,也可通过​zkServer.sh stop将zookeeper停止
jps
slave1,slave2同理
jps
jps

2.将tmp文件删除

rm -rf /opt/programs/hadoop-2.7.6/tmp

删除tmp文件

3.重新启动zookeeper

zkServer.sh start zkServer.sh status
重新启动zookeeper

4.重新格式化

重新启动journalnode和格式化hdfs namenode -format
格式化
当出现这条信息时,说明格式化成功
在这里插入图片描述

5.远程复制

进入到cd /opt/programs/hadoop-2.7.6/目录中
将master目录下tmp文件远程复制到slave1Hadoop目录下

scp -r tmp/ root@slave1:/opt/programs//hadoop-2.7.6/

远程复制

6.在master节点格式化ZKFC

在master节点格式化ZKFC

hdfs zkfc -formatZK

在这里插入图片描述
出现该信息说明格式化成功
在这里插入图片描述

7.在master启动dfs和yarn

在master节点启动 start-dfs.shstart-yarn.sh
在这里插入图片描述
通过jps查看各节点进程
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

总结

以上就是今天要讲的内容,本文仅仅简单介绍了格式化失败-拒绝连接的原因及解决办法,本文搭建的是hadoop的高可用集群经常会遇到的问题。
Hadoop的高可用性:Hadoop的NameNode包括active和standby两种状态,通过故障转移机制(即当active NameNode意外终止时,快速启动stantby NameNode)可保证HDFS的高可用性

  • 6
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值