Hadoop集群启动后命令JPS没有DataNode或者NameNode

问题原因

1)需要检查core-site.xml 和 hdfs-site.xml这俩文件,配置没错的话再看第二条
2)可能已经执行格式化NameNode后,但是格式之前并没有停止之前的进程并删除相关数据。

解决方案(记得你的集群删除前需要停止,每个副本都要进行一次下面操作

1)删除dfs文件夹里的文件和删除nm-local-dir目录

        a:删除掉nm-local-dir目录

cd /opt/module/hadoop-3.1.3/data
rm -rf nm-local-dir

        b:进入/opt/module/hadoop-3.1.3/data/dfs目录里面删除掉所有文件

cd /opt/module/hadoop-3.1.3/data/dfs

        c:删除目录

rm -rf data
rm -rf name

        c:进入/opt/module/hadoop-3.1.3/logs目录里面删除掉所有文件 

cd /opt/module/hadoop-3.1.3/logs
rm -rf *

2)删除后需要重新执行格式化NameNode操作

hdfs namenode -format

3)启动dfs

start-dfs.sh

 4)查看jps

显示nameNODE和DataNode 

  • 20
    点赞
  • 101
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当您在克隆的两台虚拟机上搭建 Hadoop 集群时,如果发现只有其中一台机器显示 `jps` 命令的结果,这通常意味着 Hadoop 的一些组件没有成功启动或者配置没有同步。`jps` 是 Hadoop 中的 JobTracker(Hadoop 1.x)或 YARN Resource Manager(Hadoop 2.x 及以后)用来查看正在运行的 Java 进程的工具。 以下是几个可能的原因和解决步骤: 1. **配置不一致**:检查每台机器的 Hadoop 配置文件(如 `core-site.xml`, `hdfs-site.xml`, 和 `yarn-site.xml`),确保它们的内容完全一致,特别是关于 Master地址(如 Namenode 或 ResourceManager 的地址)。 2. **服务启动顺序**:确保在启动 Hadoop 服务时,Master节点先于 Worker 节点启动,并且在启动没有跳过关键的服务(如 NameNode, DataNode, ResourceManager, NodeManager)。 3. **环境变量**:检查每台机器的环境变量设置,尤其是 `HADOOP_HOME`, `HADOOP_CONF_DIR`, 和 `JAVA_HOME` 等,确保指向正确的安装路径。 4. **服务状态检查**:使用 `service hadoop [namenode|datanode|resourcemanager|nodemananger] status` 或 `hadoop-daemon.sh start/stop [component]` 来确认服务是否正在运行或已成功停止。 5. **防火墙和安全组**:确保网络访问设置正确,包括防火墙规则和虚拟机之间的端口通信。 6. **日志检查**:查看 Hadoop 日志文件(通常是 `/var/log/hadoop/*` 或 `/usr/hadooplogs/*`),查找错误信息,以便定位问题所在。 完成以上排查后,如果还是只有一个节点显示 jps 的结果,可以尝试重启整个集群,或者在有问题的节点单独运行 `jps` 看看其他服务是否已经启动。同时别忘了检查相关日志,这对诊断问题非常重要。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值