针对启动hadoop后, 再启动spark , slave节点datanode消失问题
Master启动后 ,slave1和slave2 DataNode节点没有启动的问题先停掉hadoop/usr/local/src/hadoop-2.6.5/sbin/stop-all.shmaster节点和slave1, salve2节点上 下面3个文件下清空注意: 三个节点同时清空,不然白费mkdir /usr/local/src/hadoop-2.6.5/tm...
原创
2020-03-30 20:02:22 ·
497 阅读 ·
0 评论