Hadoop中解决INFO ipc.Client: Retrying connect to server的问题

Ubuntu16.04运行:
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount input output
这条命令时出现:INFO ipc.Client: Retrying connect to server: master/192.168.10.48:18040. Already tried 8 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
解决办法:
找到/etc/hosts文件,用sudo命令打开,将127.0.0.1和127.0.1.1的映射注释掉即可。
注意:如果及设计的是分布式的,就要把master和slave中的hosts文件都要修改,伪分布式的就无所谓了,因为它只有一个配置文件。

步骤如下:

第一步:

输入命令,然后回车就可以了

第二步:注意,只用注释掉就行了,不用多余的步骤,不管你的映射的名字是什么不要管,他已经不起作用了

最后,需要注意的是:如果你是伪分布式的,只用配置一台,如果你是分布式的,就要把所有的主机的hosts文件的前两行(基本上都在前两行)全部注释掉。

原理:这条链接有最根本的原因

我的理解:我的理解就是,我这个配置的是分布式的Hadoop集群,由于我在主机上(master上)运行时它有两个地址映射,一个是localhost和127.0.0.1之间的映射,一个是192.168.10.48和master之间的映射 ,在找主机服务的时候,它会首先找到127.0.0.1和localhost的映射,因为这个是默认的,但是我们在配置core-site.xml(Hadoop的核心组件文件,位于Hadoop-x.x.x/etc/hadoop下面)文件时配置的是这条代码:

<property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
	    <final>true</final>
</property>

所以,命令只认master而不会去找localhost,但是localhost是默认的,它只能先找到localhost,但是他不认localhost,所以导致连接失败。直接把127.0.0.1和localhost映射删除即可。

哪有那么多这那的!!

格式不太会,空格也不知道咋空,缩进也不会。将就着看吧,我现在正在搞这个弄得头昏脑胀的,有啥不清楚的直接问我就好,咱们一起讨论,共同进步!

  • 20
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值