当hadoop,spark集群在运行的时候,如果出现断电情况,系统会进入安全模式。因此,解决办法是关闭hadoop的安全模式。
1、 在安全模式下输入指令:
hadoop dfsadmin -safemode leave
即可退出安全模式。
2.关闭防火墙:
systemctl stop firewalld (后面忘了,按table键就可以了)
3.关闭集群
$sbin/stop-master.sh (关闭spark集群,需要先进入spark目录 cd /usr/local/spark/)
$sbin/srop-slaves.sh
$sbin/stop-all (关闭hadoop集群,先进入hadoop目录 cd /usr/local/hadoop/)
4.重新启动集群
$sbin/start-all.sh(先进入hadoop)
$sbin/start-master.sh(先进入spark目录)
$sbin/start-slaves.sh
5.查看网页启动情况
$jps (查看集群启动情况)
http://master:8080