shell脚本启动大数据组件

1 启动elasticsearch集群

#!/bin/bash
#配置ES的安装目录 修改的地方1 脚本可以自己创建
esServers='cdh01 cdh02'
#启动所有的zk
for es in $esServers
do
    ssh -T $es <<EOF
    source ~/.bash_profile 
    elasticsearch -d
EOF
echo 从节点 $es 启动elasticsearch...[ done ]
sleep 5
done

2 启动zk集群

#!/bin/bash
#配置ES的安装目录 修改的地方1 脚本可以自己创建
esServers='cdh01 cdh02'
#启动所有的zk
for es in $esServers
do
    ssh -T $es <<EOF
    source ~/.bash_profile 
    elasticsearch -d
EOF
echo 从节点 $es 启动elasticsearch...[ done ]
sleep 5
done
[bigdata@cdh01 /home/bigdata/sh2]$cat starthadoop.sh 
#!/bin/bash
#启动所有的hadoop
slaveNode='cdh02'
source ~/.bash_profile
start-all.sh
sleep 2
#启动另一台机器的resourcemanager
ssh -T $slaveNode <<EOF
    source ~/.bash_profile
    yarn-daemon.sh start resourcemanager
EOF
echo  $slaveNode 启动resourcemanager...[ done ]

3 启动kafka集群

#!/bin/bash
kafkaServers='cdh01 cdh02 cdh03 cdh04 cdh05'
#启动所有的kafka
for kafka in $kafkaServers
do
    ssh -T $kafka <<EOF
    source ~/.bash_profile 
    nohup kafka-server-start.sh /bigdata/kafka/config/server.properties 1>/dev/null 2>&1 &
EOF
echo 从节点 $kafka 启动kafka...[ done ]
sleep 5
done

4 启动kibana

#!/bin/bash
d /bigdata/install5/kibana-6.5.4-linux-x86_64/
nohup /bigdata/install5/kibana-6.5.4-linux-x86_64/bin/kibana &

5 启动hadoop集群

#!/bin/bash
#启动所有的hadoop
slaveNode='cdh02'
source ~/.bash_profile
start-all.sh
sleep 2
#启动另一台机器的resourcemanager
ssh -T $slaveNode <<EOF
    source ~/.bash_profile
    yarn-daemon.sh start resourcemanager
EOF
echo  $slaveNode 启动resourcemanager...[ done ]

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值