之前删除的节点重新加入重启失败

2013-08-03 23:26:58,184 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.protocol.UnregisteredDatanodeException: Data node 
host69:50010 is attempting to report storage ID DS-1706925804-192.168.6.69-50010-1375452866086. Node 192.168.6.69:50010 is expected to serve this storage.
	at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getDatanode(FSNamesystem.java:4608)
	at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.verifyNodeRegistration(FSNamesystem.java:4573)
	at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.registerDatanode(FSNamesystem.java:2390)
	at org.apache.hadoop.hdfs.server.namenode.NameNode.register(NameNode.java:973)
	at sun.reflect.GeneratedMethodAccessor10.invoke(Unknown Source)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

 重新启动之前坏掉的一个节点的Datanode,发现进程没有启动成功。查看相应日志,

 

原来是namenode节点将它打入了黑名单 
1.修改主节点的exclude.txt文件 
删除此节点所对应的一行 
2.刷新节点信息 
在主节点执行如下命令 
hadoop dfsadmin -refreshNodes 
注意:不要重启集群,风险太大 
3.重新启动datanode 
在datanode节点执行如下命令 
hadoop-daemon.sh start datanode 
重启成功

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值