第一种方式(推荐)
启动:分别启动HDFS和MapReduce
命令如下:start-dfs.sh start-mapreted.sh
命令如下:stop-dfs.sh stop-mapreted.sh
第二种方式
全部启动或者全部停止
启动:
命令:start-all.sh
启动顺序:NameNode,DateNode,SecondaryNameNode,JobTracker,TaskTracker
停止:
命令:stop-all.sh
关闭顺序性:JobTracker,TaskTracker,NameNode,DateNode,SecondaryNameNode
第三种启动方式
每个守护线程逐一启动,启动顺序如下:
NameNode,DateNode,SecondaryNameNode,JobTracker,TaskTracker
命令如下:
启动:
hadoop-daemon.shdaemon(守护进程)
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datenode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker
关闭命令:
hadoop-daemon.sh stop tasktracker
hadoop-daemons.sh 启动多个进程
datanode与tasktracker会分不到多台机器上,从节点启动,就使用
7.验证是否启动成功
使用jps命令验证(查看java进程)
27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager
27512 DataNode
http://cdh-node1:50070 (HDFS管理界面)
http://cdh-node1:8088 (YARN管理界面)
http://cdh-node1:19888 (JobHistory管理界面)