Hadoop 重启流程

文章描述了在Hadoop3.3.2版本中,由于配置密钥目录错误,如何重启3个节点的Hadoop集群。步骤包括重新启动Zookeeper,停止并清理主节点,格式化和启动NameNode,同步元数据,启动DataNode,格式化ZKFC,启动YARN,并启动FlinkYARNsession。
摘要由CSDN通过智能技术生成

因原有配置密钥目录有误,需要重启Hadoop集群 3个节点,Hadoop版本3.3.2

1、Zookeeper 分别在3个节点重新启动

/opt/apache-zookeeper-3.7.0-bin/bin/zkServer.sh start

2、主节点 stop-all.sh

2、主节点删除所有的临时目录 log日志,包含在xml设定的还有默认的

 

 

在各个节点删除 

rm -rf tmp/name/*
rm -rf tmp/data/*
rm -rf tmp/jn/*
rm -rf logs/*

rm -rf /tmp/hadoop-root-datanode.pid
rm -rf /tmp/hadoop-root-journalnode.pid
rm -rf /tmp/hadoop-root-zkfc.pid
rm -rf /tmp/hadoop-root-resourcemanager.pid

3、主节点 hdfs zkfc -formatZK

hdfs zkfc -formatZK

2)在各个JournalNode节点上,输入以下命令启动journalnode服务

[ root@hadoop102 ~]$ hdfs --daemon start journalnode

[ root@hadoop103 ~]$ hdfs --daemon start journalnode

[ root@hadoop104 ~]$ hdfs --daemon start journalnode

3)在[nn1]上,对其进行格式化,并启动

[ root@hadoop102 ~]$ hdfs namenode -format

[ root@hadoop102 ~]$ hdfs --daemon start namenode

4)在[nn2]和[nn3],同步nn1元数据信息

[ root@hadoop103 ~]$ hdfs namenode -bootstrapStandby

[ root@hadoop104 ~]$ hdfs namenode -bootstrapStandby

5)启动[nn2]和[nn3]

[ root@hadoop103 ~]$ hdfs --daemon start namenode

[ root@hadoop104 ~]$ hdfs --daemon start namenode

7)所有节点上,启动datanode

[ root@hadoop102 ~]$ hdfs --daemon start datanode

[ root@hadoop103 ~]$ hdfs --daemon start datanode

[ root@hadoop104 ~]$ hdfs --daemon start datanode

8)格式化zkfc

[ root@hadoop102 ~]$ hdfs zkfc -formatZK

9)在所有nn节点启动zkfc

[ root@hadoop102 ~]$ hdfs --daemon start zkfc

[ root@hadoop103 ~]$ hdfs --daemon start zkfc

[ root@hadoop104 ~]$ hdfs --daemon start zkfc

10)第二次启动可以通过脚本启动和关闭集群

[ root@hadoop102 ~]$ start-dfs.sh

[ root@hadoop102 ~]$ stop-dfs.sh

rm -rf /tmp/hadoop-yarn-root/

启动yarn集群

./start-yarn.sh

启动flink yarn session

./bin/yarn-session.sh -d

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值