Hadoop 重启流程

因原有配置密钥目录有误,需要重启Hadoop集群 3个节点,Hadoop版本3.3.2

1、Zookeeper 分别在3个节点重新启动

/opt/apache-zookeeper-3.7.0-bin/bin/zkServer.sh start

2、主节点 stop-all.sh

2、主节点删除所有的临时目录 log日志,包含在xml设定的还有默认的

 

 

在各个节点删除 

rm -rf tmp/name/*
rm -rf tmp/data/*
rm -rf tmp/jn/*
rm -rf logs/*

rm -rf /tmp/hadoop-root-datanode.pid
rm -rf /tmp/hadoop-root-journalnode.pid
rm -rf /tmp/hadoop-root-zkfc.pid
rm -rf /tmp/hadoop-root-resourcemanager.pid

3、主节点 hdfs zkfc -formatZK

hdfs zkfc -formatZK

2)在各个JournalNode节点上,输入以下命令启动journalnode服务

[ root@hadoop102 ~]$ hdfs --daemon start journalnode

[ root@hadoop103 ~]$ hdfs --daemon start journalnode

[ root@hadoop104 ~]$ hdfs --daemon start journalnode

3)在[nn1]上,对其进行格式化,并启动

[ root@hadoop102 ~]$ hdfs namenode -format

[ root@hadoop102 ~]$ hdfs --daemon start namenode

4)在[nn2]和[nn3],同步nn1元数据信息

[ root@hadoop103 ~]$ hdfs namenode -bootstrapStandby

[ root@hadoop104 ~]$ hdfs namenode -bootstrapStandby

5)启动[nn2]和[nn3]

[ root@hadoop103 ~]$ hdfs --daemon start namenode

[ root@hadoop104 ~]$ hdfs --daemon start namenode

7)所有节点上,启动datanode

[ root@hadoop102 ~]$ hdfs --daemon start datanode

[ root@hadoop103 ~]$ hdfs --daemon start datanode

[ root@hadoop104 ~]$ hdfs --daemon start datanode

8)格式化zkfc

[ root@hadoop102 ~]$ hdfs zkfc -formatZK

9)在所有nn节点启动zkfc

[ root@hadoop102 ~]$ hdfs --daemon start zkfc

[ root@hadoop103 ~]$ hdfs --daemon start zkfc

[ root@hadoop104 ~]$ hdfs --daemon start zkfc

10)第二次启动可以通过脚本启动和关闭集群

[ root@hadoop102 ~]$ start-dfs.sh

[ root@hadoop102 ~]$ stop-dfs.sh

rm -rf /tmp/hadoop-yarn-root/

启动yarn集群

./start-yarn.sh

启动flink yarn session

./bin/yarn-session.sh -d

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要删除Hadoop集群中的节点,可以按照以下步骤进行操作: 1. 首先,将要删除的节点的状态设置为Decommissioned。可以在要移除的节点上运行相应的关闭命令,如:`./hadoop-daemon.sh stop datanode`。几分钟后,节点将从Decommissioned进入Dead状态。\[1\] 2. 在master节点的excludes文件中删除相应节点的IP地址。 3. 在slave节点上重启datanode和nodemanager进程,可以使用以下命令: ``` hadoop-daemon.sh start datanode yarn-damon.sh start nodemanager ``` 4. 在master节点上刷新节点配置情况,可以使用以下命令: ``` hadoop dfsadmin -refreshNodes ``` 请注意,以上步骤适用于Hadoop 1.x版本。对于不同版本的Hadoop,配置文件和命令可能会有所不同。具体的配置文件和命令可以参考相关版本的Hadoop官方文档的cluster setup部分。\[3\] #### 引用[.reference_title] - *1* *2* [HADOOP添加与删除节点](https://blog.csdn.net/renzhewudi77/article/details/94595039)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [Hadoop动态添加/删除节点(datanode和tacktracker)](https://blog.csdn.net/yanxiangtianji/article/details/27694727)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值