linux中对应的hdfs和mapreduce端口已经配好
但是当eclipse中的hadoop插件安装并配置好后,却无法连接
右下角状态栏一直显示connecting to dfs...
后来终于知道原因,原来是linux防火墙的问题,
需要将linux下对应的端口tcp协议访问打开
在linux下输入
iptables -I INPUT -p tcp --dport 9200 -j ACCEPT
是让防火墙接受9200端口的访问
再输入iptables -L查看防火墙规则,会发现最上面一条就是刚刚插入进去的规则(参数 -I就是在最前面插入),但是他显示的名字不是9200而是wap-wsp,我们要看他真正的端口号输入iptables -nL,会发现已经变为端口号了
若要关闭9200的端口访问输入
iptables -I INPUT -p tcp --dport 9200 -j REJECT
--------------------------------------
查看端口占用情况
netstat -anplut
查看所有端口占用情况
netstat -anplut | grep 9200
就能看到9200的端口占用
最后面java前面的就是进程号,因为hadoop是java写的
输入jps查看java的进程,进行对比,就会发现对应的进程了