解决hadoop集群中有一个slaver的datanode启动失败
个人觉得,原因很有可能是master上存在hadoop的临时文件导致的,解决办法就是删除master上的tmp临时文件和所有日志文件。然后重新将master的hadoop文件压缩打包,再传递给slaver。然后将slaver上的旧hadoop删除掉,把传过来的新的hadoop解压安装。重点:这个方法会导致HDFS中存储的所有文件丢失。
代码:
在master上执行下列代码
cd
/
原创
2017-10-12 15:29:50 ·
1010 阅读 ·
0 评论