Spark全分布安装(Standalone模式)

已有条件:已经安装好hadoop2.7.7和JDK1.8.并且集群可以运行。
其中有master,slave1,slave2.
安装包:spark-2.4.3-bin-hadoop2.7.tgz(这里要根据自己的情况定)

一, 下载安装包上传到主节点master上,并用scp命令将它们传到slave1,slave2的bigdata目录下。如下图所示:
scp
二, 分别在三台机器上将它们解压,改名字。并且分别在三个节点上配置环境变量
tarmv环境变量如下:
首先进入配置环境变量的下面:cd /etc/profile
根据自己的spark的安装路径往profile文件里面添加下面的代码:

export SPARK_HOME=/root/bigdata/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

然后:

  source /etc/profile

参考图如下:
source三, 进入master,修改配置文件
cd bigdata/spark/conf
然后将spark-env.sh.template和slaves.template进行重命名。如下图所示:
mv分别对这两个文件进行配置:
在slaves文件里面将从节点也就是slave1,slave2加进去。
slaves在spark-env.sh中加入:export JAVA_HOME=/root/bigdata/jdk
export SPARK_MASTER_IP=192.168.32.3(注:这个是主节点的IP)
export HADOOP_CONF_DIR=/root/bigdata/hadoop/etc/Hadoop
如下图所示:
env然后到spark的sbin 目录下将start-all.sh和stop-all.sh重命名为start-spark-all.sh和stop-all.sh.(这个链接不用管,我实在是去不了,抱歉) 如下图所示:
在这里插入图片描述
四, 对slave1,slave2做同样的操作。
(也可以直接将涉及到是文件传过去覆盖。
比如说我们第一步的时候不用scp命令将安装包传到slave1,slave2上,到做完前三步了再将spark传过去。)对于直接传过去这种方法,下面有张图可供参考:

scp好,继续对slave1,slave2进行操作这个话题:
由于我前面没有给slave1,slave2配置环境变量,所以我直接再master上传过去。记得传过去以后分别在slave里面source文件。
在这里插入图片描述在这里插入图片描述(提醒一下,我的master于slave1,slave2已经实现免密登陆了,所以对这3台机器上的操作我就直接在一台机器上进行了。如果您没有免密登陆,也可以输入密码,然后登陆,不影响的)
五, 当确保环境变量配置好了,spark里面的变量配置好了的时候
到主节点上启动spark集群前要先启动hadoop集群。
spark集群启动
在这里插入图片描述

jps当主节点也就是我的master上面有master,从节点也就是我的slave上有worker时,搭建成功。
然后在浏览器中输入主节点的IP:8080(在这儿我的主节点的ip为192.168.32.3)就可以看到spark集群的情况。
8080
ok,搭建成功

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值