shell脚本完成hadoop的集群安装

#!/bin/bash
#步骤:
#1.安装虚拟机,关闭防火墙、selinux
#2.ssh免密码,编辑hosts文件
#3.安装JDK
#4.安装hadoop
#5.修改配置文件
#6.分发hadoop程序到各个节点
#7.启动集群


#准备软件:
#hadoop-2.7.0.tar.gz
#jdk-7u79-linux-x64.rpm
#native_x64
#conf




#----------------------------
#1.安装虚拟机,关闭防火墙、selinux(每个节点都要运行)
#service iptables stop
#setenforce 0




#----------------------------
#2.ssh免密码,编辑hosts文件(以下操作重复都在hd1,hd2,hd3上运行)
# ssh-keygen -t rsa
# ssh-copy-id hd1
# ssh-copy-id hd2
# ssh-copy-id hd3




#----------------------------
#3.安装JDK
scp ./jdk-7u79-linux-x64.rpm root@hd2:/root/soft
scp ./jdk-7u79-linux-x64.rpm root@hd3:/root/soft
rpm -ivh jdk-7u79-linux-x64.rpm
ssh hd2 rpm -ih /root/soft/jdk-7u79-linux-x64.rpm
ssh hd3 rpm -ih /root/soft/jdk-7u79-linux-x64.rpm
source /etc/profile
sleep 1




#----------------------------
#4.安装hadoop
tar -xf hadoop-2.7.0.tar.gz
sleep 1


#----------------------------
#5.修改配置文件和native文件(准备好配置文件,覆盖hadoop目录的配置文件)
cp ./conf/* /root/soft/hadoop-2.7.0/etc/hadoop/
yes | cp -rf /root/soft/native_x64/* /root/soft/hadoop-2.7.0/lib/native/
sleep 1


#----------------------------
#6.分发hadoop程序到各个节点
#把程序拷贝到其它节点
scp -r hadoop-2.7.0/ root@hd2:/root/soft/
scp -r hadoop-2.7.0/ root@hd3:/root/soft/
sleep 1


#----------------------------
#7.启动集群
cd /root/soft/hadoop-2.7.0
yes | ./bin/hdfs namenode -format
./sbin/start-dfs.sh
./sbin/start-yarn.sh
sleep 1
/usr/java/default/bin/jps


#2353 Jps
#1717 NameNode
#2087 ResourceManager
#1908 SecondaryNameNode

附件:脚本,conf文件,native文件

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值