hadoop上传文件报错_COPYING_ could only be replicated to 0 nodes。namenode格式化过多次解决办法
hadoop上传文件报错。node001:50070/,在ui界面查看磁盘使用情况如下图(或用hadoop dfsadmin -report命令查看)
磁盘使用情况为0 ,Live Nodes也为0,但是namenode,datanode等集群节点均启动正常。
查看namenode和datanode的clusterID情况如下:到current目录下查看VERSION文件
namenode:
datanode1:
datanode2:
问题原因:hadoop集群clusterID不一致( namenode格式化过多次)。
解决办法:删掉namenode和各datanode节点的current目录,再重新格式化,命令:hdfs namenode -format
节点的current目录路径:在core-site.xml中配置
重启start-all.sh后,正常如下图
创建目录
${HADOOP_HOME}/bin/hdfs dfs -mkdir /demo11
上传文件
${HADOOP_HOME}/bin/hdfs dfs -put /root/log.txt /demo11
用命令查看上传的文件
${HADOOP_HOME}/bin/hdfs dfs -cat /demo11/log.txt