8. Spark环境搭建(standalone模式)

一. 解压Spark安装包

tar -zxvf /opt/soft/spark-2.1.1-bin-hadoop2.7.tgz -C /usr/local/src/

二. 重命名conf目录里的 slaves.template 为 slaves ,spark-env.sh.template 为 spark-env.sh

mv slaves.template slaves
mv spark-env.sh.template spark-env.sh

三. 往 slaves文件添加集群中服务器的主机名

vim slaves
cluster01
cluster02
cluster03

四. 修改 spark-env.sh文件

vim spark-env.sh
#master节点
SPARK_MASTER_HOST=cluster01
#master端口
SPARK_MASTER_PORT=7077
#WORKER_CORES的数量
SPARK_WORKER_CORES=1
#WORKER_MEMORY的大小
SPARK_WORKER_MEMORY=500m

五. 修改sbin目录下的spark-config.sh,添加jdk的环境变量

vim /usr/local/src/spark-2.0.0-bin-hadoop2.6/sbin/spark-config.sh

在这里插入图片描述

六. 分发Spark包到集群中的每一个节点

七. 启动

sbin/start-all.sh
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值