06: Spark集群环境搭建

  1. 在集群中安装Spark
    这一步和之前的“01: Spark的安装与配置” 是一样的,所以那一步完成后就不必再做了。

  2. 配置环境变量
    在master节点终端配置环境变量:
    在这里插入图片描述
    在.bashrc文件中增加:
    在这里插入图片描述
    在这里插入图片描述
    保存退出后,运行source命令使得配置生效:
    在这里插入图片描述

  3. Spark配置
    (1)在master节点上配置slaves文件
    copy模板
    在这里插入图片描述
    在salves文件中设置Spark集群的Worker节点
    在这里插入图片描述
    在文件中修改默认内容localhost为:
    在这里插入图片描述
    (2)在master节点配置spark-env.sh文件
    在这里插入图片描述
    编辑
    在这里插入图片描述
    添加内容:
    在这里插入图片描述
    (3)配置slave节点
    启动slave01和slave02节点,然后,在master节点执行如下命令,将master节点的/usr/local/spark文件夹复制到各个slave节点:
    在这里插入图片描述
    在slave01和slave02节点上分别执行如下命令(下面以slave01为例):
    在这里插入图片描述
    在这里插入图片描述
    上一步如果出现没有使用sudo命令权限的提示,说明在配置Hadoop的Slave节点时漏掉了步骤,具体参考https://blog.csdn.net/lijun05/article/details/117935732,按照这个博客的第一步,配置Slave节点,然后就可以使用sudo命令了。
    在这里插入图片描述

  4. 启动Spark
    (1)启动master,slave01,slave02虚拟机,在master节点启动Hadoop集群
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

(2)在master节点上启动Spark集群
在这里插入图片描述
jps查看进程,可以看到启动的master和worker进程
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
(3)在master节点上,通过浏览器查看集群信息有两个worker
http://master:8080
在这里插入图片描述
目前没有应用在运行在这里插入图片描述
如果UI界面没有worker信息,查看slave节点的日志文件,会发现以下信息,这是因为网络防火墙没有关闭造成的。在这里插入图片描述
检查网络防火墙,发现都是打开状态在这里插入图片描述关闭防火墙之后,再次在master节点上,通过浏览器查看集群信息,可以看到worker信息在这里插入图片描述
在这里插入图片描述
5. 关闭Spark
stop-master.sh
stop-slaves.sh
stop-yarn.sh
stop-dfs.sh

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值