hadoop启动后jps没有namenode

hadoop启动后jps没有namenode

一般都是由于两次或两次以上格式化NameNode造成的,有两种方法可以解决:

1.删除DataNode的所有资料

2.修改每个DataNode的namespaceID(位于/home/hdfs/data/current/VERSION文件中)或修改NameNode的namespaceID(位于/home/hdfs/name/current/VERSION文件中),

目的是两者一致。

但是查看后,两者的ID是一样的,

于是查看/usr/local/hadoop/logs下的namenode日志文件,发现错误是java.io.FileNotFoundException: /home/hadoop/hdfs/name/current/VERSION (Permission denied)

在网上搜索后,发现是/home/hadoop/hdfs/name/current/VERSION的权限问题,于是

hadoop@master:/usr/local/hadoop/bin$ sudo chmod -R 777 /home/hadoop/hdfs

再进行格式化:hadoop@master:/usr/local/hadoop/bin$ hadoop namenode -format

启动:hadoop@master:/usr/local/hadoop/bin$ start-all.sh

jps:hadoop@master:/usr/local/hadoop/bin$ jps
6692 JobTracker
6259 NameNode
6601 SecondaryNameNode
6810 Jps

由于看到datanode和tasktracker还没有启动,就用了以下命令进行启动,但是发现确实已经启动了。

jobtracker running as process 6692. Stop it first.
192.168.1.3: tasktracker running as process 4959. Stop it first.
192.168.1.4: tasktracker running as process 5042. Stop it first.
hadoop@master:/usr/local/hadoop/bin$ jps
6692 JobTracker
6259 NameNode
6601 SecondaryNameNode
7391 Jps
hadoop@master:/usr/local/hadoop/bin$ start-dfs.sh
Warning: $HADOOP_HOME is deprecated.

namenode running as process 6259. Stop it first.
192.168.1.3: datanode running as process 4757. Stop it first.
192.168.1.4: datanode running as process 4828. Stop it first.
192.168.1.2: secondarynamenode running as process 6601. Stop it first.

http://www.cnblogs.com/linjiqin/archive/2013/03/07/2948078.html

从百度知道里看到这么一句话,

提示都说了,不建议使用这个脚本,使用start-dfs.sh和start-mapred.sh来替代它。这说明脚本的作者或者维护人也觉得这个脚本可能有问题……
你要是有兴趣也可以自己改改……
### 回答1: 可能是因为namenode没有启动成功或者没有正确配置。可以检查一下hadoop的配置文件,确认namenode的配置是否正确,然后尝试重新启动namenode。如果还是无法解决问题,可以查看日志文件,找到具体的错误信息。 ### 回答2: 在安装好Hadoop后,可能会遇到jps无法显示namenode的情况。这种情况通常发生在以下两种情况: 第一种情况:NameNode正在运行,但jps无法显示 这种情况下,NameNode确实在运行,但是jps无法显示它。这种问题通常是由于Java_HOME环境变量没有正确设置所导致的。为了解决这个问题,需要在命令行输入以下内容: export JAVA_HOME=/usr/lib/jvm/java-8-oracle 其,/usr/lib/jvm/java-8-oracle是当前Java的安装路径。如果Java不是在默认路径安装,那么需要相应地修改路径。输入以上内容后,重新运行jps命令,就应该可以看到NameNode了。 第二种情况:NameNode未能启动 这种情况是更为常见的,通常是由于配置文件错误或者其他问题导致NameNode无法启动。要解决这个问题,需要查看hadoop日志文件,可以在hadoop的log文件夹找到相关日志文件。打开名为hdfs.log的文件,如果能看到以下信息,说明NameNode未能启动成功: 2019-07-24 08:49:08,295 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: NameNode up at: localhost/127.0.0.1:9000 如果没有看到这个信息,那么需要检查hadoop的配置文件是否正确。首先,需要检查hdfs-site.xml文件,确保以下配置信息被正确设置: <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/data/nameNode</value> <final>true</final> </property> <property> <name>dfs.replication</name> <value>1</value> <final>true</final> </property> 其,dfs.namenode.name.dir是NameNode的数据存储目录,dfs.replication是文件副本数量。如果这两个配置项没有正确设置,那么NameNode无法启动。 另外,还需要检查hadoop的core-site.xml文件,确保以下配置信息被正确设置: <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> <final>true</final> </property> 其,fs.defaultFS是hadoop的默认文件系统,如果这个配置项没有正确设置,hadoop无法工作。 综上所述,如果jps无法显示NameNode,可以尝试检查Java_HOME环境变量和hadoop配置文件是否正确设置。如果NameNode未能启动,需要检查hadoop日志文件和配置文件,确定是否有配置错误或者其他问题导致NameNode无法启动。 ### 回答3: Hadoop是一个流行的分布式存储和处理框架,但是有时在安装和配置过程可能会出现问题。如果在安装完成后,使用jps命令查看Hadoop的运行情况,但没有namenode节点,这可能是由多种原因引起的,包括以下几点: 1.配置文件错误:Hadoop的配置文件非常重要,包括core-site.xml、hadoop-env.sh、hdfs-site.xml、mapred-site.xml等文件。配置文件可能有错误的参数或值,比如namenode的端口号或数据目录的设置,导致Hadoop无法启动。 2.数据目录错误:namenode需要一个数据目录来存储Hadoop的元数据和文件系统元信息。如果数据目录设置错误或者无法访问,namenode就无法启动。在配置文件指定正确的数据目录,确保Hadoop有适当的访问权限。 3.权限问题:除了数据目录,Hadoop其他文件也需要适当的权限,在使用jps命令查看Hadoop的运行情况前应挂载user group文件,并确保当前用户拥有读取和写入文件的权限。 4.JDK版本问题:Hadoop对于JDK版本的要求比较高,部分JDK版本可能无法正常运行Hadoop。对于Hadoop来说,建议采用JDK 1.7或更高版本。 如果在使用jps命令查看Hadoop的运行情况未发现namenode节点,首先应检查以上几点,确认Hadoop的配置文件正确,数据目录存在,并且处于正确的权限下,并且适当的JDK版本已经部署。如果问题仍然存在,就需要深入分析和排查具体的错误信息,以确定是何种原因导致Hadoop无法正常启动namenode节点。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值