大数据-Hadoop学习笔记03

本文主要介绍了Hadoop的学习笔记,包括hadoop脚本分析,如star-all.sh、hadoop-config.sh等,以及hadoop的常用命令和操作,还详细讲解了如何配置Hadoop和操作HDFS。
摘要由CSDN通过智能技术生成

8.hadoop脚本分析

hadoop脚本在../hadoop/sbin目录下,也可以通过which cmd查看脚本路径

1.star-all.sh

#!/usr/bin/env bash
echo "This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh"

bin=`dirname "${BASH_SOURCE-$0}"` //通过环境变量BASH_SOURCE获取路径,如果不存在获取$0,即文件本身路径
bin=`cd "$bin"; pwd` //获取绝对路径

DEFAULT_LIBEXEC_DIR="$bin"/../libexec  //获取上级目录libexec
HADOOP_LIBEXEC_DIR=${HADOOP_LIBEXEC_DIR:-$DEFAULT_LIBEXEC_DIR}    //类似于-,变量替换
. $HADOOP_LIBEXEC_DIR/hadoop-config.sh //执行hadoop-config.sh脚本,设置变量

# start hdfs daemons if hdfs is present
if [ -f "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh ]; then
  "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh --config $HADOOP_CONF_DIR //调用./sbin/start-dfs.sh,启动hdfs
fi

# start yarn daemons if yarn is present
if [ -f "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh ]; then
  "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh --config $HADOOP_CONF_DIR   //调用./start-yarn.sh,启动yarn
fi

2.hadoop-config.sh

    设置各种环境变量
    HADOOP_CONF_DIR
    HEAP_SIZE=1000m
    CLASSPATH

3.star-dfs.sh –config $HADOOP_CONF_DIR //启动hdfs

    1.libexec/hdfs-config.sh  //设置环境变量
    2.hdfs getconf -namenodes  //获取namenode主机名
    3."./sbin/hadoop-damons.sh " \  //启动namenode
        --config "HADOOP_CONF_DIR" \
        --hostname "NAMENODES" \
        --script "$bin/hdfs" start namenode $nameStartOpt
    4."./sbin/hadoop-damons.sh " \  //启动datanode
        --config "HADOOP_CONF_DIR" \
        --script "$bin/hdfs" start datanode $nameStartOpt
    5."./sbin/hadoop-damons.sh " \  //启动secondarynamenode
        --config "HADOOP_CONF_DIR" \
        --hostname "SECONDARY_NAMENODES" \
        --script "$bin/hdfs" start secondaryname

4.hdfs-config.sh

    最终还是会调用 hadoop-config.sh

5../

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值