Centos6.5(final)搭建高可用HA Spark集群

1、准备环境

  1. jdk1.8
  2. zookeeper集群
  3. hadoop集群
  4. ssh免密

1.1节点规划

IPhostname节点规划
192.168.4.14node1.sdp.cnmaster
192.168.4.15node2.sdp.cnstandby
192.168.4.16node3.sdp.cnworker
192.168.4.17node4.sdp.cnworker
192.168.4.18node5.sdp.cnworker

1.2 下载

现在地址:http://spark.apache.org/downloads.html

#查看当前环境hadoop版本
hadoop version

在这里插入图片描述
根据我们hadoop版本选择合适的spark包
在这里插入图片描述

1.3 上传&解压

将刚刚下载的spark-2.4.0-bin-hadoop2.7.tgz文件上传到家node1.sdp.cn节点
上传

#切换到上传目录
cd /opt/software/
#使用rz或者WinSCP工具上传
rz

解压

#解压到指定目录下
tar -zxvf  spark-2.4.0-bin-hadoop2.7.tgz -C /opt/module

在这里插入图片描述

2、配置

切换到spark的conf目录

cd conf

在这里插入图片描述

2.1 配置slaves

复制slaves模板文件

cp slaves.template slaves

指定worker节点hostname

vim slaves
node3.sdp.cn
node4.sdp.cn
node5.sdp.cn

2.2 配置spark-env.sh

编辑spark-env.sh

vim spark-env.sh

配置明细

# Alternate conf dir. (Default: ${SPARK_HOME}/conf)
export SPARK_CONF_DIR=${SPARK_CONF_DIR:-/usr/hdp/current/spark2-historyserver/conf}

# Where log files are stored.(Default:${SPARK_HOME}/logs)
#export SPARK_LOG_DIR=${SPARK_HOME:-/usr/hdp/current/spark2-historyserver}/logs
export SPARK_LOG_DIR=/var/log/spark2

# Where the pid file is stored. (Default: /tmp)
export SPARK_PID_DIR=/var/run/spark2

#Memory for Master, Worker and history server (default: 1024MB)
export SPARK_DAEMON_MEMORY=5120m

# A string representing this instance of spark.(Default: $USER)
SPARK_IDENT_STRING=$USER

# The scheduling priority for daemons. (Default: 0)
SPARK_NICENESS=0

export HADOOP_HOME=${HADOOP_HOME:-/usr/hdp/current/hadoop-client}
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/usr/hdp/current/hadoop-client/conf}
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=node3.sdp.cn:2181,node4.sdp.cn:2181,node5.sdp.cn:2181 -Dspark.deploy.zookeeper.dir=/spark"
# The java implementation to use.
export JAVA_HOME=/usr/jdk64/jdk1.8.0_112

采用zookeeper实现高可用HA配置

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=node3.sdp.cn:2181,node4.sdp.cn:2181,node5.sdp.cn:2181 -Dspark.deploy.zookeeper.dir=/spark"

2.3 scp到其它节点

scp -r  spark-2.4.0 root@node2.sdp.cn:/opt/module
scp -r  spark-2.4.0 root@node3.sdp.cn:/opt/module
scp -r  spark-2.4.0 root@node4.sdp.cn:/opt/module
scp -r  spark-2.4.0 root@node5.sdp.cn:/opt/module

启动集群

在master节点进入到spark的sbin目录

cd sbin

在这里插入图片描述

#启动整个集群
./start-all.sh

在standby节点

./start-master.sh spark://node1.sdp.cn:7077

访问spark web UI
默认端口8080 http://node1.sdp.cn:8080/
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值