启动hadoop后jps查看进程没有datanode
这个坑点是重复格式化造成的。
当我们执行文件系统格式化时,会在namenode数据文件夹(即配置文件中dfs.name.dir在本地系统的路径)中保存一个current/VERSION文件,记录namespaceID,标识了所格式化的 namenode的版本。如果我们频繁的格式化namenode,那么datanode中保存(即配置文件中dfs.data.dir在本地系统的路径)的current/VERSION文件只是你第一次格式化时保存的namenode的ID,因此就会造成datanode与namenode之间的id不一致。
我们之前配置的时候是一起放在一个data文件夹下,所以先进到那个路径下去查看:
cd /home/thousfeet/app/hadoop-3.0.0/data/dfs
,会看到一个data文件夹和一个name文件夹。
cd cd name/current/
,然后cat VERSION,把namenode的clusterID复制下来。
然后回到data文件夹下的current文件夹,vi VERSION
,果然datanode这里的clusterID和namenode里的不一致,就把这串替换成刚复制过来的就好了。
这时候stop-all.sh
,然后重新启动就好了。
转载连接:https://www.cnblogs.com/thousfeet/p/8618696.html