Spark 2.4.0分布式集群搭建

一、 下载安装包

地址:http://spark.apache.org/downloads.html

在这里插入图片描述

本教程采用Spark-2.4.0对应hadoop2.7版本搭建集群。

二、安装Hadoop并搭建好Hadoop集群环境

Spark分布式集群的安装环境,需要事先配置好Hadoop的分布式集群环境。如果没有配置好Hadoop的分布式集群环境,请按照https://blog.csdn.net/weixin_42294060/article/details/101800907,根据教程进行安装。

三、安装Spark

1、 集群规划在这里插入图片描述
2、 解压到相应安装目录

tar -zxvf spark-2.4.0-bin-hadoop2.7.tgz
mv spark-2.4.0-bin-hadoop2.7/home/bigdata/bigdata/spark-2.4.0

3、在Master节点主机上进行如下操作:

(1)进入配置文件所在目录

cd /home/bigdata/bigdata/spark-2.4.0/conf/

(2)配置slaves文件

将 slaves.template 拷贝到 slaves

cp slaves.template slaves

slaves文件设置Worker节点。修改slaves内容(vim slaves),把默认内容localhost替换成如下内容并保存:

westgis002
westgis003

在这里插入图片描述

(3)配置spark-env.sh文件
将 spark-env.sh.template 拷贝到 spark-env.sh

cp spark-env.sh.template spark-env.sh

编辑spark-env.sh,(vim spark-env.sh)添加如下内容:

export SPARK_DIST_CLASSPATH=$(/home/bigdata/bigdata/hadoop-2.7.7/bin/hadoop classpath)

#指定默认master的ip或主机名
export SPARK_MASTER_HOST=westgis001 

#指定maaster提交任务的默认端口为7077    
export SPARK_MASTER_PORT=7077 

#指定masster节点的web端口       
export SPARK_MASTER_WEBUI_PORT=8080 

#每个worker从节点能够支配的内存数 
export SPARK_WORKER_MEMORY=1g       


#允许Spark应用程序在计算机上使用的核心总数(默认是用所有可用核心)
export SPARK_WORKER_CORES=1   


#每个worker从节点的实例(可选配置) 
export SPARK_WORKER_INSTANCES=1  


#指向包含Hadoop集群的(客户端)配置文件的目录,运行在Yarn上配置此项  
export HADOOP_CONF_DIR= /home/bigdata/bigdata/hadoop-2.7.7/etc/Hadoop

在这里插入图片描述

(4)将安装包分发给其他节点

scp -r spark-2.4.0 westgis002:/home/bigdata/bigdata/
scp -r spark-2.4.0 westgis003:/home/bigdata/bigdata/

(5)配置备Master为westgis002

修改westgis002节点上conf/spark-env.sh配置export SPARK_MASTER_HOST=westgis002

4、配置环境变量(所有节点均要配置)

vim ~/.bashrc

添加

export SPARK_HOME=/home/bigdata/bigdata/spark-2.4.0
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

在这里插入图片描述

执行如下命令使得配置立即生效:

source ~/.bashrc

四、启动Spark集群

1、启动Hadoop集群

启动Spark集群前,要先启动Hadoop集群。在Master节点主机上运行如下命令:

start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver

2、启动Spark集群

(1)启动Master节点,在Master节点主机上运行如下命令:

start-master.sh

在Master节点上运行jps命令,可以看到多了个Master进程:

在这里插入图片描述

(2)启动所有Slave节点,在Master节点主机上运行如下命令:

start-slaves.sh

分别在westgis002、westgis003节点上运行jps命令,可以看到多了个Worker进程。

在这里插入图片描述

注意:备用master节点需要手动启动

到westgis002下:

start-master.sh

在这里插入图片描述

3、在浏览器上查看Spark独立集群管理器的集群信息,打开浏览器,访问http://192.168.56.4:8080,如下图:

在这里插入图片描述

五、关闭Spark集群

1、关闭Master节点

stop-master.sh

关闭备用Master节点(在westgis002上输入)

stop-master.sh

2、关闭Worker节点

stop-slaves.sh

3、 关闭Hadoop集群

stop-yarn.sh
stop-dfs.sh
mr-jobhistory-daemon.sh stop historyserver
  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值