Datenode无法启动

   执行start-dfs.sh后,或者执行datenode没有启动。很大一部分原因是因为在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令

这时主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变导致的。

 

解决方法:

1.查看路径:


 

 

配置hadoop-2.6.4的各项文件(注意:路径不同,命令也不一样)

 

  cd

 

    cd  hadoop/hadoop-2.6.4  

 

      cd  etc/hadoop 

 

        gedit  hdfs-site.xml    //修改代码


 

找到如下代码:

<property>

   <name>dfs.namenode.name.dir</name>

   <value>file:/home/tianjiale/hadoop/dfs/name</value>

   <final>true</final>

</property>

<property>

   <name>dfs.datanode.data.dir</name>

   <value>file:/home/tianjiale/hadoop/dfs/data</value>    

   <final>true</final>

</property>

<property>

   <name>dfs.replication</name>

   <value>2</value>

</property>


 <value> 里面的路径需要注意

 

 2.查看namenode和datanode的clusterID是否相同。

     

 

   

 

   如果clusterID不相同,则将namenode的clusterID赋值给datanode的clusterID。

   然后重新运行脚本start-dfs.sh.

   最后jps查询看看。

 

 

转载于:https://www.cnblogs.com/tianjiale/p/9685664.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值