hadoop启动之“hadoop-daemon.sh”详解

        今天看了一下启动文件“hadoop-daemon.sh”,仔细看了一下大概知道它的作用,使用“hadoop-daemon.sh“脚本启动和停止hadoop后台程序。它可以做到在A机器上启动”namenode“,B机器启动”secondarynamenode“ C机器启动”datanode“, ”tasktracker“,具体启动如下 :

 ./hadoop-daemon.sh start namenode
 ./hadoop-daemon.sh start secondarynamenode
 ./hadoop-daemon.sh start jobtracker
 ./hadoop-daemon.sh start datanode
 ./hadoop-daemon.sh start tasktracker

如果要停止可以运行如下命令

 ./hadoop-daemon.sh stop namenode
 ./hadoop-daemon.sh stop secondarynamenode
 ./hadoop-daemon.sh stop jobtracker
 ./hadoop-daemon.sh stop datanode
 ./hadoop-daemon.sh stop tasktracker


下面是是代码分析,把主要部分都写了注释,代码不多,比较容易看懂,但有一处没看懂

# Runs a Hadoop command as a daemon.
#
# Environment Variables
#
#   HADOOP_CONF_DIR  Alternate conf dir. Default is ${HADOOP_HOME}/conf.
#   HADOOP_LOG_DIR   Where log files are stored.  PWD by default.
#   HADOOP_MASTER    host:path where hadoop code should be rsync'd from
#   HADOOP_PID_DIR   The pid files are stored. /tmp by default.
#   HADOOP_IDENT_STRING   A string representing this instance of hadoop. $USER by default
#   HADOOP_NICENESS The scheduling priority for daemons. Defaults to 0.
##

usage="Usage: hadoop-daemon.sh [--config <conf-dir>] [--hosts hostlistfile] (start|stop) <hadoop-command> <args...>"
# 第一个参数是下面的“startStop”是"start" or "end"
# 第二个参数是“hadoop-command”
# hadoop-command:就是namenode|datanode|secondarynamenode|jobtracker|tasktracke

# if no args specified, show usage
if [ $# -le 1 ]; then
  echo $usage
  exit 1
fi

bin=`dirname "$0"`
bin=`cd "$bin"; pwd`

. "$bin"/hadoop-config.sh

# get arguments
startStop=$1
shift
command=$1
shift

# 日记文件默认一共5个,后缀是log,log.1,log.2,log.3,log4,log5, 
# 每次写日记的文件名都是.log, 但是上一次的.log.num变成.log.num+1,
# .log.5被.log.4覆盖后结束
hadoop_rotate_log ()
{
    log=$1;
    num=5;
if [ -n "$2" ]; then
num=$2
    fi
    if [ -f "$log" ]; then # rotate logs
while [ $num -gt 1 ]; do
prev=`expr $num - 1`
[ -f "$log.$prev" ] && mv "$log.$prev" "$log.$num"
num=$prev
done
mv "$log" "$log.$num";
    fi
}

if [ -f "${HADOOP_CONF_DIR}/hadoop-env.sh" ]; then
  . "${HADOOP_CONF_DIR}/hadoop-env.sh"
fi

# get log directory
if [ "$HADOOP_LOG_DIR" = "" ]; then
  export HADOOP_LOG_DIR="$HADOOP_HOME/logs"
fi
mkdir -p "$HADOOP_LOG_DIR"

if [ "$HADOOP_PID_DIR" = "" ]; then
  HADOOP_PID_DIR=/tmp
fi

if [ "$HADOOP_IDENT_STRING" = "" ]; then
  export HADOOP_IDENT_STRING="$USER"
fi

# some variables
export HADOOP_LOGFILE=hadoop-$HADOOP_IDENT_STRING-$command-$HOSTNAME.log
export HADOOP_ROOT_LOGGER="INFO,DRFA"
log=$HADOOP_LOG_DIR/hadoop-$HADOOP_IDENT_STRING-$command-$HOSTNAME.out
pid=$HADOOP_PID_DIR/hadoop-$HADOOP_IDENT_STRING-$command.pid

# Set default scheduling priority
if [ "$HADOOP_NICENESS" = "" ]; then
    export HADOOP_NICENESS=0
fi

case $startStop in

  (start)

    mkdir -p "$HADOOP_PID_DIR"

    # 如果已经启动就提示先关闭,然后程序退出
    if [ -f $pid ]; then
  # 假如$command是“namenode”,就先判断它是否启动,由于$pid是存放
  # “namenode”运行的进程号,所以可以通过kill -0 `cat $pid`判断
      if kill -0 `cat $pid` > /dev/null 2>&1; then
        echo $command running as process `cat $pid`.  Stop it first.
        exit 1
      fi
    fi

    # 不知道干啥???
    if [ "$HADOOP_MASTER" != "" ]; then
      echo rsync from $HADOOP_MASTER
      rsync -a -e ssh --delete --exclude=.svn --exclude='logs/*' --exclude='contrib/hod/logs/*' $HADOOP_MASTER/ "$HADOOP_HOME"
    fi

# 记录日志
    hadoop_rotate_log $log
    echo starting $command, logging to $log
    cd "$HADOOP_HOME"

# nice指令可以改变程序执行的优先权等级
# 下面这段代码是核心代码,怎么样启动hadoop
    nohup nice -n $HADOOP_NICENESS "$HADOOP_HOME"/bin/hadoop --config $HADOOP_CONF_DIR $command "$@" > "$log" 2>&1 < /dev/null &
    # 将刚刚启动的进程号写入“$pid”文件
echo $! > $pid
    sleep 1; head "$log"
    ;;

  (stop)

    if [ -f $pid ]; then
      if kill -0 `cat $pid` > /dev/null 2>&1; then
        echo stopping $command
# 通过“$pid”文件内容,也就是进程号来关闭
        kill `cat $pid`
      else
        echo no $command to stop
      fi
    else
      echo no $command to stop
    fi
    ;;

  (*)
    echo $usage
    exit 1
    ;;

esac

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: hadoop-daemon.sh start namenode 的意思是启动 Hadoop 的 NameNode 守护进程。这个命令会在 Hadoop 集群中启动 NameNode,让它开始监听来自其他节点的请求,并管理 HDFS 中的文件系统元数据。在启动 NameNode 之前,需要确保 Hadoop 集群的配置文件已经正确配置,并且所有节点都已经启动。 ### 回答2: hadoop-daemon.sh start namenode命令用于启动Hadoop集群中的NameNode服务。NameNode是Hadoop分布式文件系统(HDFS)的主节点,负责管理文件系统的命名空间和数据块的映射。 当我们执行hadoop-daemon.sh start namenode命令时,它会在集群中找到配置好的NameNode节点,并开始运行NameNode服务。运行该命令后,NameNode会开始进行一系列的初始化操作,包括检查配置文件、建立文件系统元数据、加载存储的文件系统状态等。 在启动过程中,NameNode会读取Hadoop配置文件中的相关参数,如文件系统的副本数、块大小等。这些参数将决定集群中数据的冗余备份和数据块的大小。它还会创建一个日志文件,记录集群的状态和操作信息,以便故障恢复和监控。 一旦NameNode服务成功启动,它将开始监听来自客户端和其他节点的请求,并进行相应的处理,如创建文件、删除文件、移动文件等。NameNode还负责管理集群中各个数据块的位置信息,以便客户端能够有效地读取和写入数据。 总之,hadoop-daemon.sh start namenode命令的执行将启动Hadoop集群中的NameNode服务,使得用户能够在分布式文件系统中进行文件管理和数据处理操作。 ### 回答3: 当我们在使用Hadoop时,要启动Namenode守护进程,可以使用"hadoop-daemon.sh start namenode"命令。 首先,这个命令会调用hadoop-daemon.sh脚本,然后指定"start"参数以表明我们要启动一个守护进程。接下来,我们指定"namenode"参数以告诉脚本我们要启动的是Namenode守护进程。 Namenode是Hadoop中的一个核心组件,主要负责管理和存储文件系统的元数据,例如文件和目录的层次结构,文件的访问权限等。启动Namenode守护进程后,我们可以使用Hadoop系统进行大规模数据处理和分析。 当我们执行"hadoop-daemon.sh start namenode"命令时,脚本会启动Namenode守护进程,并将其设置为在后台运行。脚本会根据Hadoop配置文件中的设置来启动守护进程,并将日志输出到指定的日志文件中。 通过启动Namenode守护进程,我们可以通过web界面或命令行工具来监视和管理Hadoop集群中的文件系统。在启动Namenode守护进程之前,我们需要确保Hadoop集群的配置正确,并且所有必要的服务和资源已经启动和可用。 总的来说,"hadoop-daemon.sh start namenode"命令是启动Hadoop集群中Namenode守护进程的关键步骤之一,它使得我们能够使用Hadoop系统进行大规模数据处理和管理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

sinoyang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值