#在sbin路径下看到常见的启动文件,打开看一下源码
/root/apps/hadoop-2.8.1/sbin/start-all.sh 的路径
//注释:开启所有的Hadoop所有进程,在主节点上进行
# Start all hadoop daemons. Run this on master node.
//显示echo后面的文字,提示:不推介此脚本,最好使用脚本
start-dfs.sh 和 start-yarn.shecho "This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh"
//创建一个路径,并且展示路径 包含的大写路径是系统默认的环境设置bin=`dirname "${BASH_SOURCE-$0}"`bin=`cd "$bin"; pwd` DEFAULT_LIBEXEC_DIR="$bin"/../libexecHADOOP_LIBEXEC_DIR=${HADOOP_LIBEXEC_DIR:-$DEFAULT_LIBEXEC_DIR}. $HADOOP_LIBEXEC_DIR/hadoop-config.sh
//提示:hdfs存在(出席)开启hdfs的进程
# start hdfs daemons if hdfs is present
if [ -f "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh ]; then
#-f指定文件是否常规文件 "
${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh --config $HADOOP_CONF_DIR
fi
//提示:yarn存在(出席)开启yarn的进程
# start yarn daemons if yarn is present
if [ -f "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh ]; then
"${HADOOP_YARN_HOME}"/sbin/start-yarn.sh --config $HADOOP_CONF_DIR
fi
这其实就是一个拥有执行权限的脚本文件,文件中针对Hadoop集群启动可能出现的各种问题进行分析
在条件都合适时,加载一些配置,开启对应服务等…
由于情况复杂,过程很繁琐,借鉴一下写的不错的文章
https://blog.csdn.net/zhang0558/article/details/53169204