重点:所有的原因都可以在hadoop下的logs目录下namenode的日志文件中找到问题所在,运行中的问题都会保存到这些文件中
这里总结几个主要问题
原因1
配置文件有问题
检查所有的hadoop配置文件,看是不是有遗漏或者不对的地方
原因2(很可能是这个问题)
节点在本机的路径有问题:日志文件中提示无法访问到你的namenode的路径
你如果使用的普通用户,你节点在本地的存放位置普通用户要得有权限,不然初始化的数据都不能够存放到指定位置
原因3
你之前多次格式化主节点,却没有删除,多次格式化namenode造成了namenode和datanode的clusterID不一致,它都不知道加载哪个了。
解决方法
删掉hadoop/logs日志文件中的所有日志文件,还有你namenode和datanode存放路径的所有文件信息,重新格式化