【Hadoop启动异常】org.apache.hadoop.hdfs.server.common.InconsistentFSStateException

异常描述

hadoop启动过程中namenode打不开,通过查看logs文件下,namenode-xxx.log文件,发现一下错误信息:
org.apache.hadoop.hdfs.server.common.InconsistentFSStateException
提示文件无法访问或者找不到,
分析:
core-site.xml 与 hdfs-site.xml中的hdfs存储路径设置不一致,导致的。只需要在其中一个文件下添加hdfs路径即可

解决

这里在hdfs-site.xml中配置dfs.namenode.name.dir和dfs.namenode.data.dir。
打开vim etc/hadoop/hdfs-site.xml文件;
添加的时候注意要用自己的路劲,以下放上我的代码:

<!-- NameNode 存放的位置 -->
  <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///opt/module/hadoop-3.1.3/data/dfs/name</value>
    </property>
  <!-- DataNode 存放的位置 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///opt/module/hadoop-3.1.3/data/dfs/data</value>
    </property>

初试化

配置好以后,有些小伙伴可能还是没用。这时候我们删除logs和data对集群再格式化一下:

rm -rf data/
rm -rf logs/
格式化指令:hdfs namenode -format

总结

找问题解决问题,制造问题解决问题。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
引用\[1\]:在hadoop配置文件hadoop-env.sh中配置 所有主机都操作 \[root@d-01 ~\]# grep -i hadoop_home /opt/hadoop-3.3.2/etc/hadoop/hadoop-env.sh export HADOOP_HOME=/opt/hadoop-3.3.2 JAVA_HOME配置 。 引用\[2\]:复制配置到其他主机 \[root@d-01 ~\]# scp -rp /opt/hadoop-3.3.2/etc/hadoop/core-site.xml d-02:/opt/hadoop-3.3.2/etc/hadoop/core-site.xml \[root@d-01 ~\]# scp -rp /opt/hadoop-3.3.2/etc/hadoop/core-site.xml d-03:/opt/hadoop-3.3.2/etc/hadoop/core-site.xml \[root@d-01 ~\]# scp -rp /opt/hadoop-3.3.2/etc/hadoop/hdfs-site.xml d-02:/opt/hadoop-3.3.2/etc/hadoop/hdfs-site.xml \[root@d-01 ~\]# scp -rp /opt/hadoop-3.3.2/etc/hadoop/hdfs-site.xml d-03:/opt/hadoop-3.3.2/etc/hadoop/hdfs-site.xml 必要操作 。 引用\[3\]:从d-01复制配置到其他节点 \[root@d-01 ~\]# scp /opt/hadoop-3.3.2/etc/hadoop/core-site.xml d-02:/opt/hadoop-3.3.2/etc/hadoop/ \[root@d-01 ~\]# scp /opt/hadoop-3.3.2/etc/hadoop/core-site.xml d-03:/opt/hadoop-3.3.2/etc/hadoop/ \[root@d-01 ~\]# scp /opt/hadoop-3.3.2/etc/hadoop/hdfs-site.xml d-02:/opt/hadoop-3.3.2/etc/hadoop/ \[root@d-01 ~\]# scp /opt/hadoop-3.3.2/etc/hadoop/hdfs-site.xml d-03:/opt/hadoop-3.3.2/etc/hadoop/ 启动journalnode进程 。 问题: org.apache.hadoop.shaded.org.apache.commons.configuration2.Configuration是什么? 回答: org.apache.hadoop.shaded.org.apache.commons.configuration2.Configuration是Apache Hadoop中的一个类,它是用于处理配置文件的接口。它提供了一种方便的方式来读取和解析配置文件,以便在Hadoop集群中进行配置管理。通过使用这个类,用户可以轻松地访问和修改Hadoop的各种配置参数,以满足其特定的需求。这个类的具体实现可以在Hadoop的相关文档中找到。 #### 引用[.reference_title] - *1* *2* *3* [hadoop自动故障转移集群搭建详解](https://blog.csdn.net/weixin_40548182/article/details/124389518)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值