Spark集群的搭建

最近忽然要把大数据跟我们对接的项目接回来我们自己维护,不得不自己搭建一个大数据的集群环境,用来运行该项目。因此记录一下集群环境的搭建,免得以后需要再搭建。

一、架构说明

本次基于spark-2.4.3-bin-hadoop2.6版本进行分布式配置。在此设置一个主节点和两个从节点。

准备3台虚拟机,分别为:

主机名

IP地址

master

192.168.0.41

slave1

192.168.0.42

slave2

192.168.0.75

本章节是记录Spark的搭建,后续会记录Hbase、Zookeeper、Scala、Kafka、Hadoop、Hive等的搭建,都是基于该环境的,一主两从模式的。 

已经在/home下创建了hadoop文件夹,用来存放各种安装的软件。

下载地址:https://mirrors.tuna.tsinghua.edu.cn/apache/,这是我找的一个镜像服务器地址

二、搭建步骤

1、上传spark-2.4.3-bin-hadoop2.6.tgz到/home/hadoop下,然后解压tar -zxvf spark-2.4.3-bin-hadoop2.6.tgz

2、配置环境变量,vim /etc/profile
export SPARK_HOME=/home/hadoop/spark-2.4.3-bin-hadoop2.6
export PATH=$PATH:$JAVA_HOME/bin:$SPARK_HOME/bin

3、修改spark-env.sh文件,进入spark-2.4.3-bin-hadoop2.6目录

复制目录下conf里的spark-env.sh.template:cp spark-env.sh.template spark-env.sh

修改配置:vim spark-env.sh

export JAVA_HOME=/usr/jdk1.8.0_161
export SCALA_HOME=/home/hadoop/scala-2.11.1
export SPARK_MASTER_IP=192.168.0.41
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.6.0-cdh5.8.0/etc/hadoop

4、配置slaves,还是conf目录下,运行命令:mv slaves.template slaves

然后在slaves里添加配置

master

slave1

slave2

5、复制spark-2.4.3-bin-hadoop2.6到slave1、slave2

scp -r /home/hadoop/spark-2.4.3-bin-hadoop2.6 root@192.168.0.75:/home/hadoop

scp -r /home/hadoop/spark-2.4.3-bin-hadoop2.6 root@192.168.0.42:/home/hadoop

同时将/etc/profile拷贝到slave1、slave2上,或者将配置内容拷贝过去,然后记得source /etc/profile

6、启动spark集群

spark-2.4.3-bin-hadoop2.6目录下的sbin目录执行./start-all.sh

使用jps和8080端口可以查看集群是否启动成功

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值