shell一键安装hadoop(3节点)

shell一键部署jdk_三台

1. 准备好三台已经安装好jdk的机器
172.16.149.150 cdh-master
172.16.149.151 cdh-worker1
172.16.149.152 cdh-worker2
2. 编写脚本
#!/bin/bash
ipath=/opt/bigdata
echo "安装hadoop集群"
installpath=$(cd `dirname $0`; pwd)
filepath=${installpath}/files
echo "解压hadoop压缩包"
tar -xvf ${filepath}/hadoop.tar.gz > /dev/null 2>&1
cd hadoop-* && hadoopname=`pwd | awk -F '/' '{print $NF}'`
echo "hadoop版本:${hadoopname}"
echo "移动解压包到指定hadoop路径"
cd ${installpath} && cp -rf ${hadoopname}/ ${ipath}/hadoop/
echo "配置hadoop环境变量"
echo "export HADOOP_HOME=${ipath}/hadoop/${hadoopname}" >> ~/.bash_profile
echo 'export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH' >> ~/.bash_profile
echo "刷新环境变量"
source ~/.bash_profile > /dev/null 2>&1
echo "解压包分发到其他节点"
for i in {1..2}
do
	scp -r ${ipath}/hadoop/${hadoopname} root@cdh-worker$i:${ipath}/hadoop
done
echo "启动Hadoop 。。。 先执行关闭操作"
${ipath}/hadoop/${hadoopname}/sbin/stop-all.sh
if [ ! -d ${ipath}/hadoop/dfs  ];then
    mkdir -p ${ipath}/hadoop/dfs/name
    mkdir -p ${ipath}/hadoop/dfs/data
else
    rm -rf ${ipath}/hadoop/dfs
    mkdir -p ${ipath}/hadoop/dfs/name
    mkdir -p ${ipath}/hadoop/dfs/data
fi
rm -rf ${ipath}/hadoop/tmp
for i in {1..2}
do
    if ssh root@cdh-worker$i "test -d ${ipath}/hadoop/dfs";then
        ssh root@cdh-worker$i "rm -rf ${ipath}/hadoop/dfs"
        ssh root@cdh-worker$i "mkdir -p ${ipath}/hadoop/dfs/name"
        ssh root@cdh-worker$i "mkdir -p ${ipath}/hadoop/dfs/data"
    else
        ssh root@cdh-worker$i "mkdir -p ${ipath}/hadoop/dfs/name"
        ssh root@cdh-worker$i "mkdir -p ${ipath}/hadoop/dfs/data"
    fi
    ssh root@cdh-worker$i "rm -rf ${ipath}/hadoop/yarn"
done
echo "初始化namenode"
hadoop namenode -format
echo "启动start-all.sh"
${ipath}/hadoop/${hadoopname}/sbin/start-all.sh


  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 将以下命令复制到终端中安装Hadoop集群部署脚本: b'shell\xe4\xb8\x80\xe9\x94\xae\xe5\xae\x89\xe8\xa3\x85hadoop\xe9\x9b\x86\xe7\xbe\xa4\xe9\x83\xa8\xe7\xbd\xb2' 按下回车键开始安装安装完成后,将你的Hadoop集群配置文件复制到所需的所有节点上,并启动Hadoop服务就可以了。 ### 回答2: Hadoop是一个分布式计算框架,主要用于处理大规模的数据集。在Hadoop集群部署过程中,需要在每台机器上安装Java、Hadoop,并配置各节点间通信等。Shell脚本为我们提供了自动化一键化的部署方式,有效减少了操作时间和人工错误的可能性。 Shell是一种脚本语言,可以用于执行操作系统内置的命令,也可以组合成程序,实现批处理的工作。可以通过编写Shell脚本,在多个节点上自动安装和配置Hadoop集群。 一般来说,Shell脚本部署Hadoop集群的流程如下: 1. 编写Shell脚本,定义需要安装哪些软件和配置,主要包括安装Java、Hadoop软件、配置Hadoop环境变量、配置Hadoop集群等。 2. 在主节点上运行一键安装脚本,脚本会自动下载Java、Hadoop软件到各个节点,并启动安装和配置过程。 3. 在集群各节点上传或复制一键安装脚本,执行脚本完成每台机器的自动化安装和配置。 4. 验证集群配置是否正确,包括节点间的链接通断、数据块的分配、备份等。 Shell脚本部署Hadoop集群的优点很明显,它可以大大简化安装的流程,让不懂Linux命令和Hadoop的人也能快速完成部署。同时,通过Shell脚本的一键安装方式,可以让部署过程更具可重复性、可靠性,减少出错和手动调整的可能性。 ### 回答3: Hadoop是一个分布式计算框架,它能够管理和处理大规模数据集。在实际应用中,如果需要进行数据分析、机器学习等工作,通常需要一台或多台计算机上配置Hadoop集群部署来实现。这个过程需要依次安装不同的环境与组件,如Java、Hadoop、Hive等。由于这个过程繁琐复杂,需要操作系统、环境与软件等多方面的知识,因此有必要使用一键安装的方式来简化部署的过程。 Shell一键安装Hadoop集群部署是使用Shell脚本编写自动安装脚本,减少繁琐的部署过程。通过一键安装,可以省去手动安装和配置环境不免出现的人工操作失误,并且可以快速、轻松地完成Hadoop集群的部署。 具体实现过程可以分为以下几步: 1. 准备安装环境,如Ubuntu、CentOS等Linux平台、GitHub下载一键安装脚本; 2. 将主机与节点服务器IP地址写入配置文件中; 3. 创建Shell脚本文件并设置所需的安装环境; 4. 编写自动安装脚本,包括软件下载、配置环境、启动服务等。 5. 安装完毕后,进行配置检查和测试。 在实际使用过程中,一键安装脚本不仅可以用于简化Hadoop集群部署的过程,也可以扩展到其他的应用上。例如,一键安装脚本也可以用与Kafka集群或其他分布式系统等。 总之,Shell一键安装Hadoop集群部署是一项非常有用而又实用的技术,可以帮助用户快速构建和部署Hadoop集群,提高工作效率和减少错误率。同时,还可以使管理和维护的过程更加简单和高效。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值