一、问题背景
今天过来发现预生产的hadoop集群全挂了,后来才知道昨晚运维把集群停机换内存,真心***,把集群机器恢复过程中,将机器的datanode启动后,在namenode的webui列表里发现该机器的节点名称怎么是localhost,截图如下:
二、问题现象
如上所示,节点的名称本该是datanode**的主机名,变成localhost
看了下主机名确实是换了,以为是运维主机名设置不对,重新设置了主机名,datanode重启后还是不行
三、排查
3.1、检查主机名设置
主机名设置的两种方式也都设置了,还是不行
- /etc/sysconfig/network中修改hostname
- hostname name
后面检查了下/etc/hosts下也配置了正确的主机名啊,不应该会有这问题
3.2、查日志
于是查看datanode的启动日志,发现有这么一句话“Configured hostname is localhost”
2019-12-12 14:00:09,688 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: DataNode metrics system started
2019-12-12 14:00:09,692 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Configured hostname is localhost
2019-12-12 14:00:09,698 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Starting DataNode with maxLockedMemory = 0
2019-12-12 14:00:09,716 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Opened streaming server at /0.0.0.0:50010
3.3、查看源码
查看hadoop的源码,在确认机器没配置特殊的域名、dns相关配置后,代码肯定走的java 底层获取主机名的
getLocalHostName()方法
3.4、定位问题范围
看了下问题应该还是出现在机器的网络配置上,重新检查发现/etc/hosts文件中多了个的127.0.0.1 相关的配置
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 datanode**
3.5、尝试解决
试着把这行注释后,重启datanode进程,问题解决了。
四、问题总结