虚拟机 环境安装脚本

编辑网络:

vim /etc/sysconfig/network-scripts/ifcfg-ens33

重启网络:

service network restart

环境脚本一键安装
参考https://github.com/MTlpc/automaticDeploy

大数据环境一键安装脚本

master分支的hive安装脚本在安装hive时只能适配1.x,而hive分支的脚本可以适配2.x以及较新版本的安装。

推荐使用hive分支的脚本,增加了更多组件的支持,master分支的代码为了保持和教程的同步,暂时不会做大的更新。

适用环境
CentOS 7以上

使用方法
在/home下创建hadoop目录,用于存放脚本
mkdir /home/hadoop
下载脚本到/home/hadoop目录下
git clone https://github.com/MTlpc/automaticDeploy.git
进入到/home/hadoop/automaticDeploy目录下,配置host_ip.txt

配置集群信息,格式为:ip hostname user password

192.168.31.41 node01 root 123456
192.168.31.42 node02 root 123456
192.168.31.43 node03 root 123456
将对应组件的安装包放置到/home/hadoop/automaticDeploy/frames目录中

配置frames.txt,填写安装包全称,以及需要安装的节点

通用环境

jdk-8u144-linux-x64.tar.gz true
azkaban-sql-script-2.5.0.tar.gz true

Node01

hadoop-2.7.7.tar.gz true node01

Node02

mysql-rpm-pack-5.7.28 true node02
azkaban-executor-server-2.5.0.tar.gz true node02
azkaban-web-server-2.5.0.tar.gz true node02
presto-server-0.196.tar.gz true node02

Node03

apache-hive-1.2.1-bin.tar.gz true node03
apache-tez-0.9.1-bin.tar.gz true node03
sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz true node03
yanagishima-18.0.zip true node03

Muti

apache-flume-1.7.0-bin.tar.gz true node01,node02,node03
zookeeper-3.4.10.tar.gz true node01,node02,node03
kafka_2.11-0.11.0.2.tgz true node01,node02,node03
如安装mysql、azkaban,需配置configs.txt,填写相关配置

Mysql相关配置

mysql-root-password DBa2020*
mysql-hive-password DBa2020*
mysql-drive mysql-connector-java-5.1.26-bin.jar

azkaban相关配置

azkaban-mysql-user root
azkaban-mysql-password DBa2020*
azkaban-keystore-password 123456
进入systems目录执行batchOperate.sh脚本初始化环境
/home/hadoop/automaticDeploy/systems/batchOperate.sh
进入hadoop目录中,选择对应组件的安装脚本,依次进行安装(需要在各个节点执行)

安装flume

/home/hadoop/automaticDeploy/systems/installFlume.sh

安装zookeeper

/home/hadoop/automaticDeploy/systems/installZookeeper.sh

安装kafka

/home/hadoop/automaticDeploy/systems/installKafka.sh

hive

automaticDeploy
大数据环境一键安装脚本

项目基于BigData_AutomaticDeploy

适用环境
CentOS 7以上

使用方法
在/home下创建hadoop目录,用于存放脚本
mkdir /home/hadoop
下载脚本到/home/hadoop目录下
git clone https://github.com/MTlpc/automaticDeploy.git
进入到/home/hadoop/automaticDeploy目录下,配置host_ip.txt

配置集群信息,格式为:ip hostname user password

192.168.31.41 node01 root 123456
192.168.31.42 node02 root 123456
192.168.31.43 node03 root 123456
将对应组件的安装包放置到/home/hadoop/automaticDeploy/frames目录中

配置frames.txt,填写安装包全称,以及需要安装的节点

通用环境

jdk-8u144-linux-x64.tar.gz true
azkaban-sql-script-2.5.0.tar.gz true

Node01

hadoop-2.7.7.tar.gz true node01

Node02

mysql-rpm-pack-5.7.28 true node02
azkaban-executor-server-2.5.0.tar.gz true node02
azkaban-web-server-2.5.0.tar.gz true node02
presto-server-0.196.tar.gz true node02

Node03

apache-hive-1.2.1-bin.tar.gz true node03
apache-tez-0.9.1-bin.tar.gz true node03
sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz true node03
yanagishima-18.0.zip true node03

Muti

apache-flume-1.7.0-bin.tar.gz true node01,node02,node03
zookeeper-3.4.10.tar.gz true node01,node02,node03
kafka_2.11-0.11.0.2.tgz true node01,node02,node03
如安装mysql、azkaban,需配置configs.txt,填写相关配置

Mysql相关配置

mysql-root-password DBa2020*
mysql-hive-password DBa2020*
mysql-drive mysql-connector-java-5.1.26-bin.jar

azkaban相关配置

azkaban-mysql-user root
azkaban-mysql-password DBa2020*
azkaban-keystore-password 123456
进入systems目录执行batchOperate.sh脚本初始化环境
/home/hadoop/automaticDeploy/systems/batchOperate.sh
进入hadoop目录中,选择对应组件的安装脚本,依次进行安装(需要在各个节点执行)

安装flume

/home/hadoop/automaticDeploy/systems/installFlume.sh

安装zookeeper

/home/hadoop/automaticDeploy/systems/installZookeeper.sh

安装kafka

/home/hadoop/automaticDeploy/systems/installKafka.sh

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值