搭建Hadoop集群后一直使用的start-all.sh到底是个什么操作

#在sbin路径下看到常见的启动文件,打开看一下源码
/root/apps/hadoop-2.8.1/sbin/start-all.sh  的路径 
//注释:开启所有的Hadoop所有进程,在主节点上进行
# Start all hadoop daemons.  Run this on master node. 
//显示echo后面的文字,提示:不推介此脚本,最好使用脚本 
start-dfs.sh 和 start-yarn.shecho "This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh" 
//创建一个路径,并且展示路径 包含的大写路径是系统默认的环境设置bin=`dirname "${BASH_SOURCE-$0}"`bin=`cd "$bin"; pwd` DEFAULT_LIBEXEC_DIR="$bin"/../libexecHADOOP_LIBEXEC_DIR=${HADOOP_LIBEXEC_DIR:-$DEFAULT_LIBEXEC_DIR}. $HADOOP_LIBEXEC_DIR/hadoop-config.sh
 //提示:hdfs存在(出席)开启hdfs的进程
 # start hdfs daemons if hdfs is present
 if [ -f "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh ]; then  
  #-f指定文件是否常规文件  "
  ${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh --config $HADOOP_CONF_DIR
  fi
  //提示:yarn存在(出席)开启yarn的进程
  # start yarn daemons if yarn is present
  if [ -f "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh ]; then  
  "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh --config $HADOOP_CONF_DIR
  fi

这其实就是一个拥有执行权限的脚本文件,文件中针对Hadoop集群启动可能出现的各种问题进行分析
在条件都合适时,加载一些配置,开启对应服务等…

由于情况复杂,过程很繁琐,借鉴一下写的不错的文章

https://blog.csdn.net/zhang0558/article/details/53169204

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值