2013-08-03 23:26:58,184 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.protocol.UnregisteredDatanodeException: Data node host69:50010 is attempting to report storage ID DS-1706925804-192.168.6.69-50010-1375452866086. Node 192.168.6.69:50010 is expected to serve this storage. at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getDatanode(FSNamesystem.java:4608) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.verifyNodeRegistration(FSNamesystem.java:4573) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.registerDatanode(FSNamesystem.java:2390) at org.apache.hadoop.hdfs.server.namenode.NameNode.register(NameNode.java:973) at sun.reflect.GeneratedMethodAccessor10.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
重新启动之前坏掉的一个节点的Datanode,发现进程没有启动成功。查看相应日志,
原来是namenode节点将它打入了黑名单
1.修改主节点的exclude.txt文件
删除此节点所对应的一行
2.刷新节点信息
在主节点执行如下命令
hadoop dfsadmin -refreshNodes
注意:不要重启集群,风险太大
3.重新启动datanode
在datanode节点执行如下命令
hadoop-daemon.sh start datanode
重启成功