Hadoop脚本分析

start-all.sh

libexec/hadoop-config.sh        --  设置变量
sbin/start-dfs.sh   --config $HADOOP_CONF_DIR  --启动hdfs
sbin/start-yarn.sh  --config $HADOOP_CONF_DIR  --启动yarn

libexec/hadoop-config.sh –设置变量

COMMON_DIR
...
HADOOP_CONF_DIR=...
HEAF_SIZE=1000M,
CLASSPATH=...

sbin/start-dfs.sh

–config $HADOOP_CONF_DIR –启动hdfs

1.libexec/hdfs-cofig.sh

2.#获得名称节点主机名
NAMENAODES = hdfs getconf -namenodes

3.启动名称节点
"$HADOOP_PREFIX/bsin/hadoop-daemnos.sh" \ 
--config "$HADOOP_CONF_DIR" \
--hostnames "$NAMENODES"
--script "$bin/hdfs" start namenode $nameStartOpt

4.启动datanode
"HADOOP——PREFIX/SBIN/hadoop-daemods.sh" \ 
    --config "$HADOOP_CONF_DIR" \
    --script "$bin/hdfs" start datanode $dataStartOpt

5.启动2nn
"$HADOOP_prefix/sbin/hadoop-daemons.sh"    \
    --config "$HADOOP_CONF_DIR" \
    --hostnames "$SECONDARY_NAMENODES" \
    --script "$bin/hdfs" start secondarynameneode

libexec/hdfs-config.sh

libexec/hdfs-config.sh

sbin/hadoop-daemons.sh

–启动守护进程脚本

1.libexec/hdfs -config.sh   --启动守护进程脚本
2.slave.sh "--config $HADOOP CONF DIR cd "$HADOOP_PREFIX"\;"$bin/hadoop-daemon.sh" --config $HADOOP_CONF_DIR"$@"

#循环slaves文件,通过ssh方式远程登录主机,执行相应命令

[bin/hadoop-daemon.sh]
hadoop-config.sh

bin/hads
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

oifengo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值