##关于hadoop集群中第二次启动时,DataNode没有启动的解决办法
##第一次启动时没有问题
第二次启动时会有文件残留
产生一个新的namenode文件(id),就不认识以前的namenode了
导致集群不能正常启动
解决办法:在格式化之前,删除datanode里面的信息(默认在/tmp,如果配置该目录,就要去配置的目录下删除(hadoop-2.6.5/data/tmp/))
##rm -rf /tmp (从节点都要执行)
##hdfs namenode -format (主节点执行)
##主从节点都 jps 然后就成功启动了