Hadoop中HDFS使用Java API进行open方法查阅文件内容:报错java.nio.channels.UnresolvedAddressException的解决办法

  博主在使用Java API操作Hadoop中的HDFS时,使用open方法查阅相应的内容,结果报错如下的截图:

 经过上网查询相应的问题,得到了相应的解决办法。

 由于博主使用的是阿里云的机器,所以在连接HDFS时使用的是纯外网IP连接写在了代码中,如下截图:(为了避免隐私问题,   这里的IP地址用xx代替)
 解决办法就是改变本机上的hosts,在代码里面不建议使用纯IP来连接HDFS,在这里我使用的是SwitchHosts工具来改变我的   hosts   映射文件,具体如下图:(这里的IP地址是我伪造的,避免隐私问题,IP代表的是你机器的外网地址,如果是本地机器   的话,那么就是你机器的内网地址)

接下来只需要将代码中的IP地址改成我们在SwitchHosts中设定好的名称,我这里是hadoop000,所以得出代码改为如下图所示:

再次启动程序就不会再抛出此错误了 

 

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

弗兰随风小欢

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值