spark配置——local模式-yarn模式-spark集群

准备

三台配置hadoop集群的虚拟机(分别是hadoop0、hadoop1和hadoop2)
下载spark,scala,anaconda
spark下载地址
scala下载地址
Anaconda下载地址
将下载的软件上传到虚拟机上

local模式

解压spark和scala,并重命名到program文件夹下

tar -zxvf scala-2.12.15.tgz
tar -zxvf spark-3.0.3-bin-hadoop3.2.tgz
mv scala-2.12.15 /home/hadoop/program/scala-2.12
mv spark-3.0.3-bin-hadoop3.2 /home/hadoop/program/spark-3.0

配置spark和scala的环境变量

cd
vim .bashrc

export SCALA_HOME=/home/hadoop/program/scala-2.12
export PATH=$SCALA_HOME/bin:$PATH


export SPARK_HOME=/home/hadoop/program/spark-3.0
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

在这里插入图片描述

source .bashrc

local模式配置完成,启动spark

pyspark
spark-shell

在这里插入图片描述
在这里插入图片描述

启动spark时会出现警告是因为python版本太老导致,后面通过安装Anaconda可以升级python版本

yarn模式

添加环境变量

cd
vim .bashrc

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

source .bashrc

如果不加上这个环境变量后面启动spark,yarn模式时会出现问题
在这里插入图片描述

编辑文件yarn-site.xml

cd $HADOOP_HOME/etc/hadoop
vi yarn-site.xml

<property>
    	<name>yarn.nodemanager.pmem-check-enabled</name>
   	    <value>false</value>
</property>
<property>
    	<name>yarn.nodemanager.vmem-check-enabled</name>
    	<value>false</value>
</property>

发送编辑好的文件到另外两个虚拟机中

scp yarn-site.xml hadoop@hadoop1:/home/hadoop/program/hadoop-3.3/etc/hadoop

scp yarn-site.xml hadoop@hadoop2:/home/hadoop/program/hadoop-3.3/etc/hadoop

yarn模式配置完成,启动spark

start-dfs.sh
start-yarn.sh
pyspark --master yarn
spark-shell --master yarn

正常启动
在这里插入图片描述
在这里插入图片描述

spark集群

配置slaves和spark-env.sh文件

cd $SPARK_HOME
cd conf/
cp slaves.template slaves
cp spark-env.sh.template spark-env.sh
vim slaves

添加

hadoop0
hadoop1
hadoop2

在这里插入图片描述

vim spark-env.sh

添加

export  SPARK_MASTER=hadoop0

在这里插入图片描述

把配置好的scala文件夹、spark文件夹和环境变量文件夹发送到其他两台虚拟机上

cd
cd program/
scp -r scala-2.12 hadoop@hadoop1:/home/hadoop/program
scp -r scala-2.12 hadoop@hadoop2:/home/hadoop/program
scp -r spark-3.0 hadoop@hadoop1:/home/hadoop/program
scp -r spark-3.0 hadoop@hadoop2:/home/hadoop/program
cd
scp .bashrc hadoop@hadoop1:/home/hadoop
scp .bashrc hadoop@hadoop2:/home/hadoop
source .bashrc

spark集群配置完成,启动spark

start-master.sh
start-slaves.sh
spark-shell --master spark://hadoop0:7077
pyspark --master spark://hadoop0:7077

hadoop0:8080
在这里插入图片描述

spark的三种启动模式

spark的启动模式,本质上是资源交由谁来管理

local模式

pyspark --master local[*]

spark-shell --master local[*]

yarn

start-dfs.sh
start-yarn.sh
pyspark --master yarn
spark-shell --master yarn

spark集群

start-master.sh

start-slaves.sh

spark-shell --master spark://hadoop0:7077

pyspark --master spark://hadoop0:7077

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值