hadoop 配置描述:namenode: master secondartynamenode :slave2 datanode: master slave1 slave2
问题描述:master多次执行dfs格式化指令以后,namenode secondarynamenode 启动正常,datanode无法启动
问题产生原因参考:http://blog.sina.com.cn/s/blog_76fbd24d01017qmc.html
采取措施 :
1.运行
sbin/stop-all.sh
停止服务
2.删除所有slave上配置的 hadoop.tmp.dir 的文件夹(本次配置如红标) 然后重新建立新的文件夹
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/modules/hadoop-2.6.0-cdh5.11.1/data/tmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
</configuration>
3.删除所有slave上的配置文件(hadoop目录/etc/hadoop/core-site.xml)并从master重新分发到slave上
scp hadoop目标/etc/hadoop/core-site.xml 用户名@s:lave1:hadoop目标/etc/hadoop/
4.master下将hadoop系统格式化 然后重新启动
bin/hdfs namenode -format
sbin/start-dfs.sh
问题解决