Hadoop五大守护进程的三种启动与关闭方式
第一种启动方式:
进入【 Hadoop-1.x / bin】目录,执行start-all.sh,JPS查看进程,全部启动成功。
19043 NameNode
19156 DataNode
19271SecondaryNameNode
19479TaskTracker
24008 Jps
19353JobTracker
查看start-all.sh 代码发现:
# start dfs daemons
"$bin"/start-dfs.sh --config$HADOOP_CONF_DIR
# start mapred daemons
"$bin"/start-mapred.sh --config$HADOOP_CONF_DIR
start-all.sh启动是依赖于,start-dfs.sh 和 start-mapred.sh 两个启动文件,需要注意的是它的执行顺序,是先执行,start-dfs.sh 之后再执行 start-mapred.sh
第二种启动方式:
进入【 Hadoop-1.x /bi 】目录,执行start-dfs.sh 后再执行 start-mapred.sh,JPS查看进程,全部启动成功。
19043 NameNode
19156 DataNode
19271SecondaryNameNode
19479TaskTracker
24008 Jps
19353JobTracker
查看start-dfs.sh和 start-mapred.sh代码发现:
【start-dfs.sh】
# start dfsdaemons
# startnamenode after datanodes, to minimize time namenode is up w/o data
# note:datanodes will log connection errors until namenode starts
"$bin"/hadoop-daemon.sh--config $HADOOP_CONF_DIR start namenode $nameStartOpt
"$bin"/hadoop-daemons.sh--config $HADOOP_CONF_DIR start datanode $dataStartOpt
"$bin"/hadoop-daemons.sh--config $HADOOP_CONF_DIR --hosts masters start secondarynamenode
【start-mapred.sh】
# start mapreddaemons
# startjobtracker first to minimize connection errors at startup
"$bin"/hadoop-daemon.sh--config $HADOOP_CONF_DIR start jobtracker
"$bin"/hadoop-daemons.sh--config $HADOOP_CONF_DIR start tasktracker
值得注意的是start-dfs.sh 和 start-mapred.sh 的启动是依赖于hadoop-daemon.sh 和 hadoop-daemons.sh文件进行启动的;
注意其顺序,启动顺序依次为namenode、datanode、secondarynamenode、jobtracker、tasktracker
第三种启动方式:
进入【 Hadoop-1.x /bi 】目录,命令如下:
【$ ./hadoop-daemon.sh namenode】
【$ ./hadoop-daemon.sh datanode】
【$ ./hadoop-daemon.sh secondarynamenode】
【$ ./hadoop-daemon.sh jobtracker】
【$ ./hadoop-daemon.sh tasktracker】
JPS查看进程,全部启动成功
19043 NameNode
19156 DataNode
19271SecondaryNameNode
19479TaskTracker
24008 Jps
19353JobTracker
第一种关闭方式:
调用stop-all.sh即可,原理同上
第二种管理方式:
调用stop-mapred.sh再调用stop-dfs.sh 注意其执行顺序,原理同上
第三种关闭方式:
关闭顺序为:jobtracker、tasktracker、namenode、datanode、secondarynamenode
进入【 Hadoop-1.x /bi 】目录,命令如下:
【 $ ./hadoop-daemon.sh jobtracker】
【$ ./hadoop-daemon.sh tasktracker】
【$ ./hadoop-daemon.sh namenode】
【$ ./hadoop-daemon.sh datanode】
【$ ./hadoop-daemon.sh secondarynamenode】
需要注意的就是必须严格准守其执行顺序
以上就是Hadoop五大守护进程的三种启动方式的全部内容了。个别部分参考了,云帆大数据视频课程。如果有错误或者问题,评论留言一起积极讨论。