Hadoop HA 搭建发现新增namenode其他节点报Retrying connect to server 0.0.0.0:8032异常

背景

问题是在笔者配置集群高可用时出现,刚开始集群正常后来出现了新增的namenode服务起不起来后来修改该节点hostname替换为0.0.0.0后才得已解决,但是这个问题困扰了笔者在搭建ha开始到解决问题的日日夜夜,今天突然集群报错,造成集群瘫痪掉。在重启集群之后发下报如下错误:

报错

在这里插入图片描述

分析

面对这个报错只是知道是通信不上,按道理来说不应该啊因为大家知道0.0.0.0它表示本机中所有的IPV4地址。监听0.0.0.0的端口,就是监听本机中所有IP的端口。按道理来说不论如何都是能访问到的。但是在笔者去掉了本机hostname0.0.0.0映射关系后集群出现了报错。其他节点无法访问本机。该异常二次发生,咦,刚刚已经解决了,为何还会发生呢?此时,心情是崩溃的。

产生原因

因为Client会去找Cluster要集群资源,而Client和Cluster要通信,就要能够在及裙房为内互相识别。但现在Client提交的spark任务默认寻找的本机,无法向集群提交,hostname无法被Cluster识别。所以,产生原因主要是Client的hostname被设置成了localhost.localdomain。换句话说,就是在/etc/hosts文件中给hostname和localhost.localdomain配置了映射关系。这个时候出问题的兄弟赶紧看看是否如此。

操作

查看hosts,发现果然如此,

cat /etc/hosts

修改掉后重启集群,发现集群各个角色运行正常。因为粗心造成这个bug真的让人很无语。大家一定要以此为鉴做事细心。加油💪🏻

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

扫地增

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值