1)分别启动HDFS和MapReduce,命令如下:(进入hadoop安装目录)
启动:
start-dfs.sh
start-mapred.sh
停止:
stop-mapred.sh
stop-dfs.sh
(2)全部启动或停止(进入hadoop安装目录)
启动:
start-all.sh
启动顺序:
NameNode->DataNode->SecondaryNameNode->JobTracker->TaskTracker
停止:
stop-all.sh
停止顺序:
JobTracker->TaskTracker->NameNode->DataNode->SecondaryNameNode
(3)每个守护进程逐一启动(进入hadoop安装目录)
启动:
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker
停止:
hadoop-daemon.sh stop jobtracker
hadoop-daemon.sh stop tasktracker
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop datanode
hadoop-daemon.sh stop secondarynamenode
注意 正常情况下,我们是不使用start-all.sh和stop-all.sh来启动和停止Hadoop集群的。这样出错了不好找原因。建议读者一个一个守护进程来启动,哪个启动失败就去看相应的log日志,这样就缩小了找错的范围。