Hadoop的一些常见错误解决方案

1、启动hadoop时没有NameNode的可能原因:

(1) NameNode没有格式化
(2) 环境变量配置错误
(3) Ip和hostname绑定失败

2、搭建hadoop集群使用ssh不成功

①查看防火墙
②检查用户权限
③可能是缺少插件
使用命令: yum install -y openssh-clients*

3、启动时报错 java.net.UnknownHostException

原因分析:通过localhost.localdomain根本无法映射到一个IP地址。
解决方法:查看/etc/hosts,将主机名hostname添加到hosts文件中。

4、hadoop在第一次启动时报错

①检查是不是对namenode进行了格式化
②namenode格式化前是否将data 和logs文件删除

5、运行shell脚本不成功

查看脚本的文件格式修改为unix格式
修改脚本格式:进入脚本文件按“shift :”输入set fileformat = unix回车

6、window下运行我wordcount报下面错误

java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.

解决方案:拷贝 hadoop.dll 文件到 windows 目录 C:\Windows\System32。

7、日志问题

报错log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.

解决方案:需要在项目的src下面新建file名为log4j.properties的文件;

8、远程连接问题

当远程连接不到linux时 查看电脑中的网卡的子网掩码与主机的子网掩码是否一致,若不一致则格式化网卡再将网段改回来。

9、start-dfs.sh不能生效故障

使用时应注意ssh应可以免密登录本机才可以使用。

10、上传文件,报错:NameNode is safe mode.

①等一会在上传
②使用hdfs dfsadmin -safemode leave命令退出安全模式就可以继续使用了

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值