hadoop基本用法回顾(connection refused问题)

唉,由于之前项目全部是实验室已经搭建好的平台,直接用就行,现在用自己的电脑搭建平台,才发现问题很多,今天设置eclipse远程连接虚拟机时,一直报错,无法连接,显示“connection refused”,查找apache的常见问题网页,总结出无非以下几个问题:

①配置是否正确,主机名,映射(hdfs-site.xml、core-site.xml)

②客户端和服务器不在一个网段内,无法访问

③防火墙是不是开启了

对应问题①,我的配置应该是不存在问题的,hadoop能正常开启,关闭,而且能web访问;eclipse应该也是没有错的,按照core-site.xml配置的,不会出错;对应问题②,我尝试ping虚拟机,发现能正常ping同没有问题;③防火墙我在安装时,就关闭了,而且也设置了免密登录,经查验确实没有问题

于是很迷?没有错,怎么会报错?连接不上,仔细看了一个人的博客(wqetfg),有可能是ubuntu的hosts中127.0.1.1是不是备注了localhost?找到etc/hosts,果断删除,正常了。原因大概是当本地的eclipse对照着配置去访问虚拟机时,我给虚拟机的127.0.1.1配置了Sparkmaster,虚拟主机的ip也配置了SparkMaster,导致eclipse不能正确连接hadoop,删除后,完全正常

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值