大数据环境一键搭建?是的,文中附赠脚本

大数据集群一键搭建脚本?是的,这可以使你在10分钟之内,快速搭建起一套大数据学习环境,解放双手。如何操作?请看文中教程。

环境说明

操作系统及组件版本

各组件版本如下,学习环境尽量保持一致,避免版本不一致带来的操作问题。

集群规划

使用3台虚拟机来进行搭建集群,分别为Node01、Node02、Node03。集群的规划如下:

其中Hadoop一共3个节点,主节点搭建在Node01上,从节点在Node01-Node03上分别有一个。

虚拟机准备

安装说明&文件下载

下载并安装Virtual Box

准备并安装3台CentOS7.2的虚拟机,主机名命名为node01、node02、node03。

虚拟机的安装可以使用纯系统镜像,安装后配置主机名。但过程会比较繁琐,学习环境讲求开箱即用,尽量少的在环境上花费时间,否则会打击学习的热情。所以,也可以直接导入已经配置好的虚拟机镜像文件,方便使用。

使用纯镜像安装,在公众号【数舟】中回复【镜像】,获取纯净系统镜像。

推荐直接导入虚拟机镜像文件,在公众号【数舟】中回复【虚拟机】获取。

虚拟机镜像文件导入流程

  1. 下载虚拟机镜像文件

  1. 打开Virtual Box,选择导入虚拟电脑

  1. 选择文件位置,进行导入

  1. 配置虚拟机,自定义将虚拟机文件存放到指定目录,然后点击确定,完成导入

  1. 依次导入Node01、Node02、Node03

  1. 开启虚拟机,使用root/123456进行登录

  1. 修改虚拟机IP地址

vim /etc/sysconfig/network-scripts/ifcfg-enp0s3

  1. 使用XShell,或者其它远程SSH Linux登录工具进行远程连接虚拟机

自动化安装脚本准备

  1. 下载并上传自动化安装脚本automaticDeploy.zip到虚拟机node01中。
wget https://github.com/MTlpc/automaticDeploy/archive/master.zip
  1. 解压automaticDeploy.zip到/home/hadoop/目录下
mkdir /home/hadoop/
unzip master.zip -d /home/hadoop/
mv /home/hadoop/automaticDeploy-master /home/hadoop/automaticDeploy
  1. 更改自动化安装脚本的frames.txt文件,配置组件的安装节点信息(如无特殊要求,默认即可)

  1. 编辑自动化安装脚本的configs.txt文件,配置Mysql、Keystore密码信息(如无特殊要求,默认即可,末尾加END表示结束)

  1. 编辑host_ip.txt文件,将3台虚拟机节点信息添加进去(需自定义进行修改)

  1. 对/home/hadoop/automaticDeploy/下的hadoop、systems所有脚本添加执行权限
chmod +x /home/hadoop/automaticDeploy/hadoop/* /home/hadoop/automaticDeploy/systems/*

大数据环境一键安装

  1. 下载frames.zip包,里面包含大数据组件的安装包,并上传到node01中
链接:https://pan.baidu.com/s/17T3zIbedTaQgk1knxvchPA 
提取码:cvtq

  1. 将frames.zip压缩包,解压到/home/hadoop/automaticDeploy目录下
unzip frames.zip -d /home/hadoop/automaticDeploy/
  1. 将自动化脚本分发到其它两个节点
# 需提前在另外两个节点创建/home/hadoop目录(此时还未配置hosts,需将node02\node03替换为对应IP)
ssh root@node02 "mkdir /home/hadoop"
ssh root@node03 "mkdir /home/hadoop"
scp -r /home/hadoop/automaticDeploy root@node02:/home/hadoop/
scp -r /home/hadoop/automaticDeploy root@node03:/home/hadoop/

  1. 依次在各个节点执行systems/batchOperate.sh脚本,完成环境初始化
/home/hadoop/automaticDeploy/systems/batchOperate.sh
  • 为了避免脚本中与各个节点的ssh因为环境问题,执行失败,需要手动测试下与其它节点的ssh情况,如果失败,则手动添加

  • 失败后重新添加SSH

    ssh-copy-id node02
    

  1. 在各个节点执行脚本,安装Hadoop集群
/home/hadoop/automaticDeploy/hadoop/installHadoop.sh
source /etc/profile
# 在Node01节点执行,初始化NameNode
hadoop namenode -format
# 在Node01节点执行,启动Hadoop集群
start-all.sh
  1. 使用本地浏览器访问node01:50070,成功则搭建成功

如果有帮助的,记得点赞、关注。在公众号《数舟》中,可以免费获取专栏《数据仓库》配套的视频课程、大数据集群自动安装脚本,并获取进群交流的途径。

我所有的大数据技术内容也会优先发布到公众号中。如果对某些大数据技术有兴趣,但没有充足的时间,在群里提出,我为大家安排分享。

公众号自取:

公众号

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

桥路丶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值