Hadoop启动报错常见问题

在本地虚拟机上部署Hadoop和Yarn后,启动时遇到常见问题:1) 由于未将节点名称加入域名映射导致主机名无法识别,解决方法是修改配置文件;2) 执行start-dfs.sh时,由于缺少Hadoop本地类路径环境变量,通过添加环境变量解决。执行jps后,NameNode和DataNode进程成功启动。
摘要由CSDN通过智能技术生成

我在本地虚拟机上部署好 Hadoop 和 Yarn 之后,执行启动命令 ./sbin/start-dfs.sh,但是却出现各种报错问题,在此记录一下常见的两个问题。

1、Could not resolve hostname: Name or service not known

报错信息:

19/05/17 21:31:18 WARN hdfs.DFSUtil: Namenode for null remains unresolved for ID null.  Check your hdfs-site.xml file to ensure namenodes are configured properly.
Starting namenodes on [jing-hadoop]
jing-hadoop: ssh: Could not resolve hostname jing-hadoop: Name or service not known
......

这是因为没有把配置文件里的节点名称 jing-hadoop 加入域名映射,所以无法识别主机名。

解决办法:

vim /etc/hosts
127.0.0.1  jing-hadoop

然后再次启动就好了。

注意,我是在本地虚拟机上搭建的伪集群,这里的 jing-hadoop 是在 hdfs-site.xml 配置的,对应的节点 ip 就是 127.0.0.1,你要根据自己的环境做对应的修改,不要直接照搬。

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值