Call From localhost/127.0.0.1 to localhost:9000 failed on connection exception: java.net.ConnectExce

连接拒绝

当有指定地址的机器报出了 Connection Refused 异常,而且端口没有被占用,网络也没有丢包的前提下。

除非在两端都有配置错误,否则通常的原因是Hadoop服务没有运行。

异常文本声明连接失败的主机名和端口。端口可用于标识服务。例如,端口9000是HDFS端口。其他更多的端口查阅:Hadoop常用端口号汇总

  1. 检查主机IP配置是否正确。包括 Hadoop 配置文件。
  2. 检查客户端与之通信的IP是否正确。
  3. 确保异常中的目标地址不是0.0.0.0—这意味着实际上没有为客户端配置该服务的真实地址,相反,它正在获取服务器端属性,告诉它侦听每个端口的连接。
  4. 如果错误消息说远程服务位于“127.0.0.1”或“localhost”上,这意味着配置文件告诉客户端服务位于本地服务器上。如果您的客户端试图与远程系统通信,那么配置就是错误的。
  5. 检查在 /etc/hosts 中是否有一个映射到127.0.0.1 或 127.0.1.1的主机名条目
  6. 检查客户端试图使用服务器提供服务的匹配端口。(netstat
  7. 在服务端上,尝试telnet localhost <port>,看看端口是否打开。
  8. 在客户端,尝试telnet <server> <port>,看看该端口是否可以远程访问。
  9. 尝试从另一台计算机连接到服务器/端口,以查看是否只是单个客户端连不上。
  10. 如果您的客户端和服务器位于不同的子域,则可能是服务的配置仅发布基本主机名,而不是完全限定的域名。不同子域中的客户机可能会无意中尝试绑定到本地子域中的主机,但是失败了。
  11. 如果您正在使用来自第三方的基于hadoop的产品,请使用供应商提供的支持渠道。

小结

我本身的原因是 NAMENODE 没有启起来,如果你是本机虚拟机测试环境的话,直接把 namenode 重新格式化,然后重启 HDFS 就可以了,执行命令如下:

# 重新格式化 namenode(测试虚拟环境,生产环境严禁执行此操作)
[root@flink sbin]# hadoop namenode -format
# 启动 hdfs
[root@flink sbin]# ./start-all.sh 

 

  • 14
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值