Spark安装及配置详细步骤

1、解压scala、spark:

tar -zxvf scala-2.11.8.tgz
tar -zxvf spark-2.4.4-bin-hadoop2.6.tgz

2、配置环境变量(master、slave1、slave2分别执行):

export SCALA_HOME=/usr/local/src/scala-2.11.8
export SPARK_HOME=/usr/local/src/spark-2.4.4-bin-hadoop2.6
export PATH=$PATH:$SCALA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin

重新加载环境变量:

source ~/.bashrc

3、修改spark配置文件(spark-env.sh、slaves):
进到spark目录:

cd spark-2.4.4-bin-hadoop2.6/

在这里插入图片描述
进入conf目录下:

cd conf/

在这里插入图片描述
将spark-env.sh.template、slaves.template分别替换为spark-env.sh、slaves:

mv spark-env.sh.template spark-env.sh
mv slaves.template slaves

在这里插入图片描述
配置slaves:
在这里插入图片描述
在这里插入图片描述
配置spark-env.sh:
在这里插入图片描述
因为之前搭建hadoop过程中hosts中有域名转换,直接填master:
在这里插入图片描述
4、scala\spark拷贝到slave1、slave2节点:

scp -rp spark-2.4.4-bin-hadoop2.6/ root@slave1:/usr/local/src/
scp -rp spark-2.4.4-bin-hadoop2.6/ root@slave2:/usr/local/src/

scp -rp scala-2.11.8/ root@slave2:/usr/local/src/
scp -rp scala-2.11.8/ root@slave2:/usr/local/src/

在这里插入图片描述
5、启动spark:
需先启动hadoop:
在这里插入图片描述
再启动spark:
在这里插入图片描述
master上查看服务进程:
在这里插入图片描述
从节点查看服务进程:
在这里插入图片描述
浏览器访问:
在这里插入图片描述
6、验证
(1)本地模式:
bin目录下执行:

./run-example SparkPi 10 --master local[2]

在这里插入图片描述
在这里插入图片描述
(2)集群Standlone

./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://master:7077 examples/jars/spark-examples_2.11-2.4.4.jar 100

在这里插入图片描述
在这里插入图片描述
(3) spark on yarn

spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster examples/jars/spark-examples_2.11-2.4.4.jar 100

在这里插入图片描述
在这里插入图片描述

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值