【spark】spark2.1.1集群搭建

本文介绍了如何搭建Spark 2.1.1集群,包括在3台虚拟机上的基础网络配置、JDK安装、Master和Worker节点设置,以及环境变量配置。详细步骤包括在Master节点解压Spark,配置slaves文件,修改worker的spark-env.sh,以及可选的环境变量配置。监控页面可通过Spark的REST URL获取集群信息。
摘要由CSDN通过智能技术生成


安装版本:spark-2.1.1-bin-hadoop2.7.tgz

准备操作:创建3台虚拟机,构建基础网络、免密钥、时间同步、HOST配置。并且安装jdk:1.8

Master:node111

Worker:node112 、node113

一、解压

tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz


二、修改安装目录下/conf/下的配置文件

以下操作在node111上完成

1)slaves配置文件

cp slaves.template  slaves

进入slaves,默认为localhost,这个是伪集群。

修改成worker的host

vi slaves
删掉localhost
追加
node112
node113

2)spark-env.sh

改名

mv spark-env.sh.template spark-env.sh

修改

vi spark-env.sh

export JAVA_H
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值