在Ubuntu下使用Eclispe连接hadoop时拒绝链接解决方式总结

用eclipse连接集群查看文件信息提示9000port拒绝连接的错误
Cannot connect to the Map/Reduce location: hadoop1.0.3

Call to ubuntu/192.168.1.111:9000 failed on connection exception: java.net.ConnectException: 拒绝连接

1.常见解决的方法:配置都非常正常,就是连接不了。

后来又一次配置hadoop location,把Map/Reduce Master 和 DFS Master中的Host由localhost改成了ip地址(192.168.1.111),然后问题就攻克了。

奇怪,localhost不就是本机嘛,而namenode主机(192.168.1.111)也是本机。

2.eclipse的hadoop插件与hadoop的版本不一致导致的。你最好使用下载的hadoop包解压后的contri文件里的eclipse插件

3.hadoop-site.xml文件配置错误

<property>
<name>fs.default.name</name>
<value>hdfs://你的username:9000</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://username:9001</value>
</property>
4.关闭hdfs权限:hdfs-site.xml中
<property>    
    <!-- 是否对DFS中的文件进行权限控制(測试中一般用false)-->    
    <name>dfs.permissions</name>    
    <value>false</value>    
</property>
5.检查eclipse插件是否设置了hadoop安装文件夹:将与linux下安装的hadoop同样版本号的hadoop解压到windows下一个文件夹,然后指定hadoop插件文件夹。插件文件夹在preferences的map/reduce的hadoop installation location
6.在windows的hosts文件里加入hadoop所有节点的ip和主机名
7.关闭linux系统防火墙
8.把hadoop三个配置文件里涉及到的主机名所有改成ip地址。master和salves文件也改成ip
9/etc/hosts出错
10,补充一种最有意思也是最坑人的问题!或许你得hadoop根本就没有启动!!




转载于:https://www.cnblogs.com/ycfenxi/p/6723016.html

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值