start-dfs.sh脚本分析
启动start-dfs.sh
加载config.xml (hadoop相关配置信息)
启动hadoop-daemons.sh(启动slaves和hadoop-daemon.sh)
启动hadoop-daemon.sh(根据相关参数,运行)
启动hdfs (根据参数,找到对应的class文件进行运行)
举个栗子:
启动 namenode
① start-dfs.sh
② hadoop-daemons.sh start namenode
③ hadoop-daemon.sh start namenode
④ hdfs namenode
注意:如果是完全分布式,单独启动datanode,不能使用后两个,只能用hadoop-daemons.sh start datanode ,只有这个脚本会加载slaves文件,判断启动哪一个slave的namenode。