Hadoop启动出错Cannot assign requested address

在腾讯云上配置hadoop,namenode一直启动不成功
cat一下日志,看看发生了什么事

cat $HADOOP_HOME/logs/hadoop-root-namenode-Namenode.log

发现

2017-04-05 19:29:29,326 FATAL org.apache.hadoop.hdfs.server.namenode.NameNode: Failed to start namenode.
java.net.BindException: Problem binding to [Namenode:9000] java.net.BindException: Cannot assign requested address; For more details see:  http://wiki.apache.org/hadoop/BindException
    at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)

根据http://wiki.apache.org/hadoop/BindException,以及百度csdn博客,在stackoverflow上搜索,发现都是端口占用之类的问题。
但是netstat -a | grep 9000发现并不没有
折腾了很多次,一直以为自己的配置有问题。直到无意中发现,腾讯云服务器无法绑定公网IP的地址,即在 /etc/hosts 需要这样设置

内网IP地址  你的hostname
公网IP地址  别的hostname
  • 8
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
Hadoop是一个开源的分布式计算框架,它的启动流程可以简单概括为以下几个步骤: 1. 启动NameNode:NameNodeHadoop的主节点,负责管理文件系统的命名空间和数据块的位置信息。在启动过程中,NameNode会加载文件系统的元数据,并监听来自客户端和其他节点的请求。 2. 启动DataNode:DataNodeHadoop的数据节点,负责存储实际的数据块。在启动过程中,DataNode会向NameNode注册自己,并定期向NameNode发送心跳信号以保持连接。 3. 启动ResourceManager:ResourceManager是Hadoop的资源管理器,负责协调集群中各个应用程序对资源的请求。在启动过程中,ResourceManager会加载集群的配置信息,并监听来自客户端和其他节点的请求。 4. 启动NodeManager:NodeManager是Hadoop的节点管理器,负责管理每个节点上的容器和任务。在启动过程中,NodeManager会向ResourceManager注册自己,并定期向ResourceManager发送心跳信号以保持连接。 5. 启动JobHistoryServer:JobHistoryServer是Hadoop的作业历史服务器,负责存储和展示作业执行的历史信息。在启动过程中,JobHistoryServer会加载历史信息的存储路径,并监听来自客户端和其他节点的请求。 6. 启动其他组件:除了上述核心组件外,Hadoop还包括其他一些组件,如SecondaryNameNode、JournalNode等,它们在启动过程中会根据需要进行相应的初始化和启动。 以上是Hadoop的简要启动流程,涉及到的组件和步骤可能会因具体的Hadoop版本和配置而有所不同。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值