搭建hadoop集群环境太麻烦?运行两个脚本五分钟搞定环境搭建

前言

此方法适用于有一定Linux基础,又不想花较多时间去搭建的同学。对于小白,我建议按照传统朴素的方法进行搭建,因为在搭建的过程中,不仅能够学会常用的Linux命令,更能够磨炼你的意志。

一、前期准备
  1. 准备好三台centos虚拟机
  2. 确定三台虚拟机的ip地址
  3. 下载好所需组件的安装包,hadoop-3.3.3.tar.gzjdk-8u341-linux-x64.tar.gz
二、脚本项目简介

整个自动化部署脚本项目预览

image-20230606192516853

  • frames文件夹存放的是所需组件的安装包;
  • syetem文件夹存放的是系统配置脚本,它的功能:配置jdk、关闭防火墙、配置ssh免密登录、配置网络服务,更改主机名等;
  • hadoop文件夹存放的是hadoop安装脚本,它的功能:自动解压安装hadoop、自动填写配置文件;
  • frames.txt 指明虚拟机所需要的环境,对应于frames文件夹;
  • host_ip.txt指明三台虚拟机的IP地址、主机名、用户、密码。
三、使用方法

三台虚拟机都需要进行以下1–>7操作,8、9操作只需在主节点node01机器上进行。避免重复进行1–>4操作,可以采用通过ssh分发文件的方法,将赋予权限后的automaDeploy文件分发给node02、node03。

  1. 将此脚本项目打包为zip文件,通过xshell上传到虚拟机中

  2. 创建/home/hadoop文件夹(该脚本不能灵活使用,可以在脚本中修改路径,比如改为/root/hadoop等)

    mkdir /home/hadoop
    
  3. 将zip文件解压至文件夹/home/hadoop中

    unzip automaticDeploy.zip -d /home/hadoop/
    
  4. 给脚本赋予root权限

    chmod +x /home/hadoop/automaticDeploy/hadoop/* /home/hadoop/automaticDeploy/systems/* 
    
  5. 进入到system文件夹中执行batchOperate.sh脚本批量初始化环境

    /home/hadoop/automaticDeploy/systems/batchOperate.sh
    
  6. 进入到hadoop文件夹执行installHadoop.sh安装hadoop

    /home/hadoop/automaticDeploy/hadoop/installHadoop.sh
    
  7. 生效环境变量

    source /etc/profile
    
  8. 初始化namenode

    hadoop namenode -format
    
  9. 启动集群

    start-all.sh
    
四、使用过程中可能出现的问题以及解决办法
  1. ssh免密码登录:由于脚本运行不同步,导致ssh免密码登录失败。例如:node01出现无法免密码登录node02

    解决方法:

    ssh-copy-id node02
    

    如果其他机器出现相同问题,解决方法同上

  2. 假如出现其他异常的问题,百度能够帮你解决

五、感谢

项目基于BigData_AutomaticDeploy优化而成,由于老项目hadoop安装脚本适配于hadoop2.0x。我在此基础上加以优化改进,使其适配hadoop3.0x。后续我会优化其他组件安装的脚本。(比如spark、sqoop、hive、habse等我个人熟悉的组件)

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

易霭珞

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值