spark安装-3台虚拟机

1.上传tar包

spark-2.4.3-bin-hadoop2.7.tgz

2.解压tar包
tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz
3.修改文件名
mv spark-2.4.3-bin-hadoop2.7 spark
4.配置环境变量

进入/etc/profile

sudo vim /etc/profile

添加以下内容

#SPARK_HOME
#自己的路径
export SPARK_HOME=/data/spark/spark
export PATH=$PATH:$SPARK_HOME/bin
export PATH=$PATH:$SPARK_HOME/sbin

使配置环境生效

source /etc/profile
5.进入spark的conf文件
cd /data/spark/spark/conf/
6.修改配置文件 spark-env.sh

拷贝spark-env.sh.template 为spark-env.sh

cp spark-env.sh.template spark-env.sh

拷贝进入spark-env.sh

vim spark-env.sh

添加以下内容

# 配置一下主服务器;端口号木有配置,默认是7077,在standby上告诉mastre是自己,我的standby是bigdata102,所以在bigdata102的配置文件中下面的bigdata103改成bigdata102
#配置大哥
export SPARK_MASTER_HOST=bigdata103

# 设置zookeepr
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=bigdata101:2181,bigdata102:2181,bigdata103:2181 -Dspark.deploy.zookeeper.dir=/spark"
7.配置slaves

进入 slaves

vim slaves

添加以下内容

# 配置的从节点
bigdata101
bigdata102
bigdata103
8.分发到各个服务器
sudo scp -r conf/ bigdata102:`pwd`
sudo scp -r conf/ bigdata10:`pwd`
9.在bigdata102中修改以下内容

拷贝进入spark-env.sh

vim spark-env.sh

修改export SPARK_MASTER_HOST

# 配置一下主服务器;端口号木有配置,默认是7077,在standby上告诉mastre是自己,我的standby是bigdata102,所以在bigdata102的配置文件中下面的bigdata103改成bigdata102
#配置二哥
export SPARK_MASTER_HOST=bigdata102

# 设置zookeepr
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=bigdata101:2181,bigdata102:2181,bigdata103:2181 -Dspark.deploy.zookeeper.dir=/spark"
10.修改用户名和用户组
sudo chown -R hadoop:hadoop spark

先启动zookeeper集群

bin/zkServer.sh start
11.在bigdata103上执行一下master命令
#启动spark集群
sbin/start-all.sh

#关闭spark集群
sbin/stop-all.sh

#启动master
sbin/start-master.sh

#启动master
sbin/stop-master.sh
12.查看端口号

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值