《Hadoop系列》Hadoop问题处理记录

Hadoop问题处理记录

一、ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: Failed to start namenode.

1.启动Hadoop报如下错误:

2021-08-04 10:05:28,443 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: Failed to start namenode.
org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory /tmp/hadoop-root/dfs/name is in an inconsistent state: storage directory does not exist or is not accessible.
        at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverStorageDirs(FSImage.java:327)
        at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:215)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFSImage(FSNamesystem.java:975)

2.问题分析:

1.Linux系统在每次重启后,hadoop不能正藏启动namenode,需要格式化之后才能再次启动
2.初步认定为namenode格式化问题
3.可能引发这样问题的原因是hadoop的默认格式化路径在/tmp下,但是这个目录每次重启的时候都会被清空,导致namenode格式化出错,而且多次格式化后,也可能回引起hadoop集群的问题。所以必须解决这个问题。

3.处理方法:

修改hadoop下的core-site.xml

 <!-- hadoop的内部的数据或者元数据真实的存放路径 -->
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/apps/hadoop-2.8.1/hdpdata</value>
        </property>

修改好之后,手动格式化namenode,生产环境格式化namenode需注意数据问题

hdfs namenode -format

二、云服务器启动hadoop,namenode没启动起来

之前使用虚拟机玩Hadoop,现在使用云服务器安装Hadoop的时候粗心了

1.启动Hadoop问题

[root@hadoop_zxy ~]# jps
13893 SecondaryNameNode
14327 Jps
13545 DateNode

2.解决

首先想到的是hadoop name -format没有成功,尝试了几次删除logs,dpdate等文件都不行
最后想到core-site.xml配置的时候,云服务器有内部IP和外部IP之分,由于习惯了虚拟机,直接将外部IP放这了。
最后将core-site.xml中如下红框内改为内部IP
在这里插入图片描述

3.再次启动

[root@hadoop_zxy ~]# jps
13893 SecondaryNameNode
14327 Jps
13545 NameNode
13256 DateNode

三、Failed to start namenode,Directory /tmp/hadoop-root/dfs/name is in an inconsistent state

1.启动Hadoop报如下错误:

    2021-08-04 10:05:28,443 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: Failed to start namenode.
    org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory /tmp/hadoop-root/dfs/name is in an inconsistent state: storage directory does not exist or is not accessible.
            at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverStorageDirs(FSImage.java:327)
            at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:215)
            at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFSImage(FSNamesystem.java:975)

2.问题分析:

1.Linux系统在每次重启后,hadoop不能正藏启动namenode,需要格式化之后才能再次启动
2.初步认定为namenode格式化问题
3.可能引发这样问题的原因是hadoop的默认格式化路径在/tmp下,但是这个目录每次重启的时候都会被清空,导致namenode格式化出错,而且多次格式化后,也可能回引起hadoop集群的问题。所以必须解决这个问题。

处理方法:

修改hadoop下的core-site.xml
<!-- hadoop的内部的数据或者元数据真实的存放路径 -->
    <property>
       <name>hadoop.tmp.dir</name>
        <value>/opt/apps/hadoop-2.8.1/hdpdata</value>
    </property>

修改好之后,手动格式化namenode

hdfs namenode -format
  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Hadoop体系架构是一个分布式系统,包括HDFS、MapReduce、YARN等组件。其中,HDFSHadoop分布式文件系统,是Hadoop体系架构中的核心组件之一。在使用Hadoop体系架构时,安全问题是非常重要的,特别是围绕HDFS的安全问题。以下是对HDFS安全问题进行分析: 1. 访问控制:HDFS默认情况下没有访问控制,任何人都可以访问其中的文件。因此,需要对HDFS进行访问控制,限制只有授权用户才能访问HDFS中的文件。可以使用Kerberos认证,将用户身份验证和授权结合起来,确保只有授权用户才能访问HDFS。 2. 数据加密:HDFS中的数据在传输和存储过程中需要进行加密,以保护数据的机密性。可以使用SSL/TLS协议对数据进行加密,确保数据传输过程中不会被窃听或篡改。同时,还可以使用AES或DES等加密算法对数据进行加密,确保数据在存储过程中不会被非法访问。 3. 安全审计:HDFS中的文件访问和操作都需要进行审计,以便及时发现安全问题。可以使用Hadoop审计日志,记录所有的文件访问和操作,包括用户身份、时间、访问方式等信息,以便对HDFS进行安全审计。 4. 防止拒绝服务攻击:HDFS中的数据节点可以被攻击者利用进行拒绝服务攻击,导致HDFS无法正常工作。因此,需要对HDFS进行防火墙设置,限制对HDFS的访问,并使用入侵检测系统对HDFS进行实时监控,及时发现和阻止攻击行为。 总之,HDFS作为Hadoop体系架构的核心组件,安全问题是非常重要的。需要对HDFS进行访问控制、数据加密、安全审计和防止拒绝服务攻击等措施,确保HDFS的安全性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

DATA数据猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值