大数据环境安装脚本升级

大数据环境安装脚本升级

功能新增&调整

最近对大数据环境安装脚本进行了升级。相比上一个版本,增加了以下功能:

  1. 增加HBase集群安装。

  2. 增加Spark一键安装。

  3. 增加HUE一键编译安装。

  4. 增加Maven一键安装,并配置国内阿里镜像源。

  5. 增加NodeJS一键安装,并配置国内阿里镜像源。

  6. HBase、Spark安装配置文件frames.txt格式有所调整。

    # 安装包名 是否安装(true/false) 安装节点 主节点
    hbase-2.0.0-bin.tar.gz true node01,node02,node03 node02
    
  7. Hadoop安装脚本升级,增加了HistoryServer配置,并根据是否安装HUE添加适配参数。

  8. Hive安装脚本升级,支持安装2.x版本,配置参数优化调整,自动修复元数据问题。

  9. 升级集群安装入口脚本clusterOperate.sh,添加对host_ip列表的集群进行一键环境初始化。

  10. batchOperate.sh脚本做了细节调整。

新版本的脚本,已经提交到hive分支中,master分支因为之前的课程原因暂不进行升级,之后测试通过后再进行合并。

附上脚本开源地址:https://github.com/MTlpc/automaticDeploy

大数据环境一键安装

大数据环境使用脚本安装时,与之前相比,只有第3步不同。这里直接在一个节点上,执行clusterOperate.sh,便会对集群所有节点进行脚本分发、安装包分发、环境初始化,简化了使用步骤。

  1. 下载frames.zip包,里面包含大数据组件的安装包,并上传到node01中
链接:https://pan.baidu.com/s/1XxuouuogndEc6vIIiUhyTw 
提取码:i4ki 
复制这段内容后打开百度网盘手机App,操作更方便哦

  1. 将frames.zip压缩包,解压到/home/hadoop/automaticDeploy目录下
unzip frames.zip -d /home/hadoop/automaticDeploy/
  1. 进行集群环境配置,并分发安装脚本和文件
/home/hadoop/automaticDeploy/systems/clusterOperate.sh
  • 为了避免脚本中与各个节点的ssh因为环境问题,执行失败,需要手动测试下与其它节点的ssh情况,如果失败,则手动添加

  • 失败后重新添加SSH

    ssh-copy-id node02
    

  1. 在各个节点执行脚本,安装Hadoop集群
/home/hadoop/automaticDeploy/hadoop/installHadoop.sh
source /etc/profile
# 在Node01节点执行,初始化NameNode
hadoop namenode -format
# 在Node01节点执行,启动Hadoop集群
start-all.sh
  1. 使用本地浏览器访问node01:50070,成功则说明Hadoop搭建成功

后话

如果有帮助的,记得点赞、关注。在公众号《数舟》中,可以免费获取专栏《数据仓库》配套的视频课程、大数据集群自动安装脚本,并获取进群交流的途径。

我所有的大数据技术内容也会优先发布到公众号中。如果对某些大数据技术有兴趣,但没有充足的时间,在群里提出,我为大家安排分享。

公众号自取:

公众号

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

桥路丶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值