hadoop中的遇过的坑

1. 使用RPC时,用win10上的主机连接虚拟机上的ubuntu时,出现java.net.ConnectException问题。**

错误截图:错误截图
在后面的建议链接中可以得到答案:
在这里插入图片描述
根据Hadoop给出的建议,可以发现是ubuntu中/etc/hosts的问题:
在这里插入图片描述
原来是ubuntu中的/etc/hosts默认设置的原因,对其进行修改,删除默认的主机名匹配:
在这里插入图片描述
再次运行原来的程序,就正常了。
在这里插入图片描述
注:这里还有一个坑,因为之前上传到hdfs中的文件已经是设定好namenode所关联的ip了,也就是主机名所对应的ip,所以如果只修改了hosts文件,就会发生很奇怪的事。

如下图所示,可以在定义的存放block的地方看到上传到hdfs中的block中记录了namenode的IP地址
在这里插入图片描述
可以看到,文件的ip地址已经改成上面这样了,这就是为啥改完hosts后会出现奇怪的连接失败的原因。

可以将定义的hdfs中的临时文件删除,再运行hadoop namenode -format进行重置,就一切正常了。
在这里插入图片描述

2. 在linux中使用mapreduce的本地模式运行时,文件路径名为

file:///home/******

3.在写mapreduce的时候,使用StringUtils.split(line, ’ ')时,注意中文的空格和英文的空格是不同的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值