前言
本文用于解决 Apache Hadoop 启动时 DataNode 启动异常的问题,但是请注意这会删除 HDFS 中原有的所有数据,如果原有的数据很重要请不要这样做。
声明:本文由作者“白鹿第一帅”于 CSDN 社区原创首发,未经作者本人授权,禁止转载!爬虫、复制至第三方平台属于严重违法行为,侵权必究。亲爱的读者,如果你在第三方平台看到本声明,说明本文内容已被窃取,内容可能残缺不全,强烈建议您移步“白鹿第一帅” CSDN 博客查看原文,并在 CSDN 平台私信联系作者对该第三方违规平台举报反馈,感谢您对于原创和知识产权保护做出的贡献!
文章作者:白鹿第一帅,作者主页:https://blog.csdn.net/qq_22695001,未经授权,严禁转载,侵权必究!
一、启动 HDFS 并显示当前所有 Java 进程
依次在 Hadoop 安装目录下执行以下命令启动 HDFS 并显示当前所有 Java 进程:
./bin/hdfs namenode -format #格式化NameNode
./sbin/start-dfs.sh #启动HDFS
jps #显示当前所有的Java进程
二、DataNode 启动异常场景描述
当 DataNode 启动异常时或者没有启动时我们调用 jps 命令不会显示其进程,具体如下图所示:
三、DataNode 启动异常解决方式
再次提醒:删除 tmp 文件,会删除 HDFS 中原有的所有数据。
依次执行如下命令:
./sbin/stop-dfs.sh #关闭HDFS
rm -r ./tmp #删除tmp文件,注意这会删除HDFS中原有的所有数据,tmp文件目录根据本地目录寻找
./bin/hdfs namenode -format #重新格式化NameNode
./sbin/start-dfs.sh #重启HDFS
jps #显示当前所有的Java进程
成功启动后我们可以看到 DataNode 的进程,具体如下图所示:
四、Web 界面检查 Hadoop 信息
同时,可以通过 Linux 本地浏览器访问 Web 界面(http://localhost:9870)来查看 Hadoop 的信息,具体如下图所示:
文章作者:白鹿第一帅,作者主页:https://blog.csdn.net/qq_22695001,未经授权,严禁转载,侵权必究!
总结
本文解决了 Apache Hadoop 启动时 DataNode 没有启动的问题,但是请注意这会删除 HDFS 中原有的所有数据,如果原有的数据很重要请不要这样做。其他的方法暂时还没有发现,这个方法百试百灵,有其他的方法的小伙伴欢迎补充!
我是白鹿,一个不懈奋斗的程序猿。望本文能对你有所裨益,欢迎大家的一键三连!若有其他问题、建议或者补充可以留言在文章下方,感谢大家的支持!