HDFS NFS Gateway 无法启动、挂载失败问题

转自:http://blog.csdn.net/feloxx/article/details/49099397

如遇到NFS启动失败,或者其他机器挂载NFS失败,错误字样有如下

挂载失败关键字:
mount.nfs: requested NFS version or transport protocol is not supported

启动失败关键字:
WARN org.apache.hadoop.oncrpc.RpcProgram: Invalid RPC call version 4
NFS service is already running on this host. Please stop the NFS service running on this host before attempting to start the NFS Gateway role.
Started listening to TCP requests at port 2049 for Rpc program: NFS3 at localhost:2049 with workerCount 0
ShutdownHook ‘NfsShutdownHook’ failed, java.lang.RuntimeException: Unregistration failure

关键字样,没有portmap or rpcbind服务,所以后续工作无法进行:
No portmap or rpcbind service

工作运行机制为:
HDFS NFS Gateway工作需要依附 rpcbind 服务,所以启动前需要确定rpcbind服务正常开启。 service rpcbind start
但是HDFS NFS 服务会与系统自带的NFS服务冲突,所以在启动前需要关闭系统自带的NFS服务。service nfs stop

当尝试在HDFS (Hadoop Distributed File System) 的完全分布式模式下启动HDFS进程时失败,一般会遇到以下几个原因: 1. **配置文件问题**:HDFS的配置文件(如core-site.xml、hdfs-site.xml等)可能存在错误,比如路径不正确、权限设置不当或者资源不足(如磁盘空间不足)。 2. **环境变量**:JAVA_HOME、HADOOP_HOME等环境变量可能未正确设置,或者指向的不是Hadoop的安装目录。 3. **NameNode和DataNodes未启动**:如果只有部分节点启动,那么HDFS集群不会成功。需要检查所有NameNode(主备)和DataNode是否都已启动并互相发现。 4. **网络问题**:如果集群内的节点之间网络连接有问题,可能导致NameNode无法分发任务给DataNodes。 5. **资源竞争**:如果集群中有大量的并发请求或者资源分配不合理,可能会引发资源争抢,从而导致启动失败。 6. **硬件故障**:例如某个DataNode节点磁盘损坏或存储设备未初始化。 7. **软件版本冲突**:不同版本的Hadoop组件可能存在兼容性问题。 为了解决这个问题,你可以按照以下步骤排查: 1. 查看Hadoop的日志文件,寻找具体的错误提示。 2. 核实配置文件无误,并调整必要的参数。 3. 确保所有依赖的服务(如Zookeeper)已经正常运行。 4. 调整或增加所需的资源。 5. 使用`jps`命令检查各个Hadoop进程是否正在运行。 6. 分析并修复网络问题,确保节点间通信畅通。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值