大数据-Hadoop学习笔记03

8.hadoop脚本分析

hadoop脚本在../hadoop/sbin目录下,也可以通过which cmd查看脚本路径

1.star-all.sh

#!/usr/bin/env bash
echo "This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh"

bin=`dirname "${BASH_SOURCE-$0}"` //通过环境变量BASH_SOURCE获取路径,如果不存在获取$0,即文件本身路径
bin=`cd "$bin"; pwd` //获取绝对路径

DEFAULT_LIBEXEC_DIR="$bin"/../libexec  //获取上级目录libexec
HADOOP_LIBEXEC_DIR=${HADOOP_LIBEXEC_DIR:-$DEFAULT_LIBEXEC_DIR}    //类似于-,变量替换
. $HADOOP_LIBEXEC_DIR/hadoop-config.sh //执行hadoop-config.sh脚本,设置变量

# start hdfs daemons if hdfs is present
if [ -f "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh ]; then
  "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh --config $HADOOP_CONF_DIR //调用./sbin/start-dfs.sh,启动hdfs
fi

# start yarn daemons if yarn is present
if [ -f "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh ]; then
  "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh --config $HADOOP_CONF_DIR   //调用./start-yarn.sh,启动yarn
fi

2.hadoop-config.sh

    设置各种环境变量
    HADOOP_CONF_DIR
    HEAP_SIZE=1000m
    CLASSPATH

3.star-dfs.sh –config $HADOOP_CONF_DIR //启动hdfs

    1.libexec/hdfs-config.sh  //设置环境变量
    2.hdfs getconf -namenodes  //获取namenode主机名
    3."./sbin/hadoop-damons.sh " \  //启动namenode
        --config "HADOOP_CONF_DIR" \
        --hostname "NAMENODES" \
        --script "$bin/hdfs" start namenode $nameStartOpt
    4."./sbin/hadoop-damons.sh " \  //启动datanode
        --config "HADOOP_CONF_DIR" \
        --script "$bin/hdfs" start datanode $nameStartOpt
    5."./sbin/hadoop-damons.sh " \  //启动secondarynamenode
        --config "HADOOP_CONF_DIR" \
        --hostname "SECONDARY_NAMENODES" \
        --script "$bin/hdfs" start secondaryname

4.hdfs-config.sh

    最终还是会调用 hadoop-config.sh

5../

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值