我在本地虚拟机上部署好 Hadoop 和 Yarn 之后,执行启动命令 ./sbin/start-dfs.sh
,但是却出现各种报错问题,在此记录一下常见的两个问题。
1、Could not resolve hostname: Name or service not known
报错信息:
19/05/17 21:31:18 WARN hdfs.DFSUtil: Namenode for null remains unresolved for ID null. Check your hdfs-site.xml file to ensure namenodes are configured properly.
Starting namenodes on [jing-hadoop]
jing-hadoop: ssh: Could not resolve hostname jing-hadoop: Name or service not known
......
这是因为没有把配置文件里的节点名称 jing-hadoop
加入域名映射,所以无法识别主机名。
解决办法:
vim /etc/hosts
127.0.0.1 jing-hadoop
然后再次启动就好了。
注意,我是在本地虚拟机上搭建的伪集群,这里的 jing-hadoop
是在 hdfs-site.xml
配置的,对应的节点 ip 就是 127.0.0.1
,你要根据自己的环境做对应的修改,不要直接照搬。