HDFS部署常见问题总结

HDFS部署的常见问题总结:

一、部署细节问题
  1. 是否遗漏了前置准备章节的相关操作?
  2. 是否遗漏了将文件夹(hadoop安装文件夹,/data数据文件夹) chown授权到hadoop用户这一操作
  3. 是否遗忘了格式化hadoop这一步(hadoop namenode -format)
  4. 是否是以root用户格式化的hadoop
  5. 是否以root启动过hadoop,后续以hadoop用户启动出错
  6. 是否在确认workers文件内,配置了node1,node2,node3三个节点
  7. 是否在/etc/profile内配置了HADOOP_HOME环境变量,并将 H A D O O P H O M E / b i n 和 HADOOP_HOME/bin和 HADOOPHOME/binHADOOP_HOME/sbin加入PATH变量
  8. 是否遗忘了软连接,但环境变量的配置的HADOOP_HOME确是:/export/server/hadoop
  9. 是否确认配置文件内容的准确(一个字符都不错),并确保三台机器的配置文件均OK

二、其他问题

  1. 权限问题:

    • Permission denied(权限被拒绝)

    hadoop安装文件夹或/data文件夹,未被授权给hadoop用户,所以无权限操作。

    所有的Permission denied都是权限问题。

  2. 环境变量问题:

    • command not found

      没有配置好环境变量,导致

      • /export/server/hadoop/bin/hadoop
      • /export/server/hadoop/sbin/start-dfs.sh & /export/server/hadoop/sbin/stop-dfs.sh

      这些命令或脚本无法直接执行

  3. workers文件问题

    启动后仅有node1有进程出现

    node2,node3无反应

    检查,是否workers文件内没有正确的配置

    start-dfs.sh脚本会:

    • 在当前机器启动SecondaryNameNode,并根据core-site.xml的记录启动NameNode
    • 根据Worker文件的记录,启动datanode。
  4. 未格式化

    启动后,node1无NameNode,仅有DataNode和SecondayNameNode

    node2,node3无反应

    start-dfs.sh脚本未报错

    查看NameNode日志(/export/server/hadoop/logs/hadoop-hadoop-namenode-node1.log)提示NameNode未格式化

    Hadoop集群第一次启动为什么要格式化NameNode
    # 原因
    # 1.Hadoop生态中的文件系统HDFS类似一块磁盘,初次使用硬盘需要格式化,让存储空间明白该按什么方# # 式组织存储数据。
    # 2.格式化NameNode会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到以往数# 据。
    
    # 如何格式化
    # 格式化NameNode前,先关闭掉NameNode节点和DataNode节点,然后一定要删除hadoop目录下的data文# 件夹和log日志文件夹。最后再进行格式化。
    hadoop namenode -format
    
    
  5. 配置文件错误

    WstxEOFException,Unexpected EOF

    配置文件有问题,仔细检查每一个字符。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

虎啸君

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值