spark3.x的Linux环境分布式安装配置

本文详细介绍了在Linux环境下配置Scala和Spark的过程,包括环境变量设置、解压安装包、修改配置文件,以及启动Spark集群的步骤。通过配置HADOOP_HOME、SCALA_HOME等环境变量,并确保所有节点的环境一致,最后成功启动Spark Master和Worker。
摘要由CSDN通过智能技术生成

1.首先安装配置scala环境,安装配置方法和java一样,开始解压包

[zhang@ecs-88194-0001 package]$ tar -zxvf scala-2.13.8.tgz -C ../software/

2.配置环境变量

[zhang@ecs-88194-0001 package]$ vim /etc/profile.d/my_env.sh 

3.添加环境变量

#SCALA_HOME
export SCALA_HOME=/opt/software/scala-2.13.8
export PATH=$PATH:$SCALA_HOME/bin

4.刷新环境变量

[zhang@ecs-88194-0001 software]$ source /etc/profile.d/my_env.sh 

5.测试scala是否配置成功,如图所示代表成功

在这里插入图片描述

6.解压spark包

[zhang@ecs-88194-0001 package]$ tar -zxvf spark-3.2.0-bin-hadoop3.2.tgz -C ../software/

7.修改配置文件名称

[zhang@ecs-88194-0001 package]$  mv  spark-env.sh.template spark-env.sh
[zhang@ecs-88194-0001 package]$  mv  workers.template workers

8.在spark-env.sh的文件末尾添加环境变量

#hadoop的位置
export HADOOP_HOME=/opt/software/hadoop-3.3.3
#hadoop的配置文件的目录
export HADOOP_CONF_DIR=/opt/software/hadoop-3.3.3/etc/hadoop
#yarn的配置文件的目录
export YARN_CONF_DIR=/opt/software/hadoop-3.3.3/etc/hadoop
#java的位置
export JAVA_HOME=/opt/software/jdk1.8.0_212
#scala的位置
export SCALA_HOME=/opt/software/scala-2.13.8
#sparkmaster的机器节点的ip
export SPARK_MASTER_IP=192.168.0.198
#sparkmaster的机器节点的ip
export SPARK_MASTER_HOST=192.168.0.198
#spark节点的内存
export SPARK_EXECUTOR_MEMORY=1G
#spark节点的cpu核数
export SPARK_WORKER_CORES=2

9.配置workers文件,在末尾添加所有节点的ip地址

在这里插入图片描述
10.分发文件到所有节点,确保所有节点都配置好scala环境。

[zhang@ecs-88194-0001 software]$ /home/zhang/bin/xsync spark/

11.启动前确保所有节点Hadoop集群hdfs和yarn全部启动,java环境和scala环境配置好。
在master节点启动

[zhang@ecs-88194-0002 spark]$ sbin/start-master.sh 
在workers节点启动 start-slaves.sh此命令3.x版本已经弃用
[zhang@ecs-88194-0001 spark]$ sbin/start-worker.sh

12.登录浏览器查看
在这里插入图片描述
workers显示为3安装启动成功

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值