hadoop自动安装脚本


还不能实现完全自动安装,只能算半自动的。


进行交互主要障碍有两点:
1. ssh-keygen的时候需要点击回车。
2. passwd 需要设置密码 
如果谁能解决以上两点,欢迎email给我。


另外:需要JDK和Hadoop压缩包




第一步: 设置Root用户的SSH 无密码访问
              为了之后修改Hosts文件配置环境变量,拷贝数据方便


ssh root@192.168.1.148     'sh -c "ssh-keygen -t rsa"'
cat  ~/.ssh/id_rsa.pub | ssh root@192.168.1.148 'sh -c "cat - >>~/.ssh/authorized_keys"'
ssh  root@192.168.1.148  'sh -c "chmod -R 700 /root/.ssh"'


# ssh  root@192.168.1.148  'sh -c " ls -l --color=tty ~/.ssh "'



第二步: 添加用户Hadoop,Hadoop的管理帐户,是Hadoop的超级用户

ssh  root@192.168.1.148 'sh -c "useradd -p 123456 hadoop"'

ssh  root@192.168.1.148  'sh -c "passwd hadoop"'   给Hadoop用户修改密码
# ssh  root@192.168.1.148  'sh -c " ls -l --color=tty /home/hadoop"'  

第三步: 修改主机名和hosts 文件

ssh  root@192.168.1.148  'sh -c "hostname hadoop148"'
ssh r oot@192.168.1.148   'sh -c " echo -e \"NETWORKING=yes \nNETWORKING_IPV6=no\nHOSTNAME=hadoop148\" >  /etc/sysconfig/network "'
echo -e "192.168.1.148     hadoop148" >> /etc/hosts               修改本地Hosts文件,最后拷贝到每台机器上


第四步:设置hadoop用户的SSH无密码访问

ssh  hadoop@192.168.1.148     'sh -c "ssh-keygen -t rsa"'
cat  ~/.ssh/id_rsa.pub | ssh hadoop@192.168.1.148 'sh -c "cat - >>~/.ssh/authorized_keys"'
ssh  hadoop@192.168.1.148  'sh -c "chmod -R 700 /home/hadoop/.ssh"'
ssh  hadoop@192.168.1.148  'sh -c " ls -l --color=tty ~/.ssh "'



第五步: 安装JDK,Hadoop 压缩包
scp  jdk1.7.0_03.tgz  root@192.168.1.159 :/usr/local/  # 拷贝
ssh   root@192.168.1.159   'sh -c " tar  -xvzf  /usr/local/jdk1.7.0_03.tgz -C \"/usr/local\" "'  #  远程 解压缩

scp  hadoop-0.20.205.0.tar.gz  root@192.168.1.159 :/opt
ssh   root@192.168.1.159   'sh -c " tar  -xvzf  /opt/hadoop-0.20.205.0.tar.gz -C \"/opt\" "'


第六步:设置软 连接 ,创建目录
ssh  root@192.168.1.159  'sh -c "mkdir /opt/data "'
ssh  root@192.168.1.159  'sh -c "mkdir /opt/tmp "'
ssh  root@192.168.1.159  'sh -c "ln -s /opt/hadoop-0.20.205.0 /opt/hadoop"'



第七步:拷贝hosts文件,设置环境变量, 启动 Hadoop

ssh root@192.168.1.159  'sh -c " echo -e \"export JAVA_HOME=/usr/local/jdk1.7.0_03 \nexport PATH=/opt/hadoop/bin:\\\$JAVA_HOME/bin:\\\$PATH\nexport CLASSPATH=\\\$JAVA_HOME/lib\" >>  /etc/profile "'
scp /etc/hosts  root@192.168.1.159 :/etc/  # hosts 文件需要拷贝到没一台已经安装Hadoop的机器中

scp /opt/hadoop/conf/masters  /opt/hadoop/conf/core-site.xml /opt/hadoop/conf/ hdfs -site.xml /opt/hadoop/conf/ map red-site.xml /opt/hadoop/conf/hadoop-env.sh /opt/hadoop/conf/fair-scheduler.xml   root@192.168.1.159 :/opt/hadoop/conf

ssh   root@192.168.1.159   'sh -c "chown -R hadoop:hadoop /opt"'

ssh   hadoop@192.168.1.159   'sh -c "/opt/hadoop/bin/hadoop-daemon.sh start  datanode "'
ssh   hadoop@192.168.1.159   'sh -c "/opt/hadoop/bin/hadoop-daemon.sh start tasktracker"'
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值