Spark的安装配置(本地模式,standalone模式,standalone HA模式,on-yarn模式)

本文详细介绍了Spark的安装配置过程,包括本地模式、Standalone模式、Standalone高可用(HA)模式以及On-Yarn模式。在每个模式下,都涉及到配置文件的修改、集群分发及任务提交等关键步骤,对于理解和实践Spark在不同环境下的运行具有指导意义。
摘要由CSDN通过智能技术生成

1)本地模式

 1.1)下载安装包至MasterNode,并解压缩。

wget https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
tar -zxvf spark-3.1.2-bin-hadoop3.2.tgz

 1.2) 修改~/.bash_profile文件,然后启动Spark

export Spark_home=/home/user/spark-3.1.2-bin-hadoop3.2
export PATH=$PATH:$Spark_home/bin:$Spark_home/sbin

2)Standalone模式

2.1)修改配置文件/conf/workers,使其包含以下内容。

2.2)修改配置文件/conf/spark-env.sh,使其包含以下内容。

JAVA_HOME=/home/user/jdk1.8.0_202
HADOOP_CONF_DIR=/home/user/hadoop-3.2.2/etc/hadoop/
YARN_CONF_DIR=/home/user/hadoop-3.2.2/etc/hadoop/
SPARK_MASTER_HOST=192.168.1.66
SPARK_MASTER_PORT=7077
SPARK_MASTER_WEBUI_PORT=16161
SPARK_WORKER_CORES=2
SPARK_WORKER_MEMORY=2g

2.3)将配置好的Spark包分发到Slave1节点和Slave2节点。然后启动集群。

scp -r /home/user/spark-3.1.2-bin-hadoop3.2 user@192.168.1.88:/home/user/spark-3.1.2-bin-hadoop3.2
scp -r /home/user/spark-3.1.2-bin-hadoop3.2 user@192.168.1.99:/home/user/spark-3.1.2-bin-hadoop3.2
scp -r /home/user/.bash_profile user@192.168.1.88:/home/user/.bash_profile
scp -r /home/user/.bash_profile us
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值