Spark 连接 hdfs时:Call From to master:8020 failed on connection exception:

问题原因

Spark 默认的 hdfs 端口号为 8020,而在设置 hadoop 时,一般将其设置为 9000

设置的位置在 core-site.xml 中 —- fs.defaultFS属性(一般设置为 hdfs://master:9000)

解决

  • 一般使用 hdfs 中的文件时,使用 URI 路径最好注明端口号,如 hdfs://master:9000/tmp

  • 网上有人直接改 core-site.xml 文件中的 fs.defaultFS 属性

看起来你遇到了Hadoop分布式文件系统(HDFS)之间通信的问题,具体表现为`Call From`主机到另一个主机的连接失败。这通常与网络设置、防火墙配置以及Hadoop守护进程的安全性有关。以下是可能的原因和解决方案: 报错原因: 1. **防火墙阻止**:如果主节点(hadoop1)的9000端口受到防火墙限制,导致其他节点无法连接。 2. **端口未开放**:即使防火墙允许,也可能是因为主节点的9000端口并未开启,用于接收客户端请求。 3. **远程访问权限**:即使端口开放,若设置了只允许本地连接,那么外部节点会收到拒绝连接。 报错解决步骤(简易版本)[^2]: 1. **检查防火墙设置**:确认主节点的防火墙是否允许来自其他节点的TCP连接,特别是9000端口。 ```shell sudo ufw allow from <slave_ip> to any port 9000 ``` 2. **启动Hadoop服务**:确保Hadoop在主节点上运行并且NameNode(可能是`hdfs namenode -format`后的结果)正在监听9000端口。 3. **修改配置**:检查`core-site.xml`或`hdfs-site.xml`中的`<dfs.http.address>`配置,确保允许远程访问。默认应为`localhost`,需改为全网地址如`0.0.0.0`。 4. **重启Hadoop服务**:如果上述步骤调整了配置,需要重启Hadoop以应用新的设置。 ```shell sudo service hadoop-daemon restart namenode ``` 如果你遇到类似`mkdir: Call From hadoop102/192.168.45.102 to hadoop102:8020 failed on connection exception: java.net...`的错误,可能说明尝试连接的节点自身存在问题,或者是网络环境内部的连通性问题。检查hadoop102自身的网络设置和Hadoop服务状态也是必要的。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值