Spark安装配置03--配置Spark Standalone HA

------------------------------------------------

1.zookeeper正常安装并启动,参看:https://blog.csdn.net/With__Sunshine/article/details/88538888

------------------------------------------------

2.修改spark-env.sh,配置如下

#注释内容如下:
#SPARK_MASTER_HOST=s101
#SPARK_MASTER_PORT=7077

#添加内容如下:
export SPARK_DAEMON_JAVA_OPTS="
 -Dspark.deploy.recoveryMode=ZOOKEEPER
 -Dspark.deploy.zookeeper.url=s101,102,s103,s104
 -Dspark.deploy.zookeeper.dir=/spark"

------------------------------------------------

3.分发文件

cd /soft/spark/conf

scp -r spark-env.sh centos@s102:/soft/spark/conf
scp -r spark-env.sh centos@s103:/soft/spark/conf
scp -r spark-env.sh centos@s104:/soft/spark/conf

------------------------------------------------

4.在s101上启动全部节点

cd /soft/spark/sbin

./start-all.sh

------------------------------------------------

5.在s102上启动master节点

cd /soft/spark/sbin

./start-master.sh

------------------------------------------------

6.spark HA访问集群

/soft/spark/bin/spark-shell \
--master spark://s101:7077,s102:7077 \
--executor-memory 2g \
--total-executor-cores 2

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是Spark Standalone HA安装步骤: 1. 配置SSH免密登录,在所有节点上安装Java和Spark。 2. 配置Spark的环境变量,如在.bashrc文件中添加以下内容: ``` export SPARK_HOME=/usr/local/spark export PATH=$SPARK_HOME/bin:$PATH ``` 3. 编辑Spark配置文件,在每个节点上创建一个spark-env.sh文件,包含以下内容: ``` export SPARK_MASTER_HOST=<主节点的IP地址> export SPARK_MASTER_PORT=7077 export SPARK_WORKER_CORES=<每个节点的CPU核心数> export SPARK_WORKER_MEMORY=<每个节点的内存大小> export SPARK_WORKER_INSTANCES=1 export SPARK_DAEMON_MEMORY=<Master和Worker的内存大小> ``` 4. 在主节点上启动Spark Master,执行以下命令: ``` $SPARK_HOME/sbin/start-master.sh ``` 5. 在每个工作节点上启动Spark Worker,执行以下命令: ``` $SPARK_HOME/sbin/start-worker.sh spark://<主节点的IP地址>:7077 ``` 6. 配置Spark Standalone的高可用性,编辑spark-env.sh文件,添加以下内容: ``` export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=<Zookeeper集群的IP地址>:2181 -Dspark.deploy.zookeeper.dir=/spark" ``` 7. 配置Zookeeper集群,安装和启动Zookeeper。 8. 在主节点上启动备用的Spark Master,执行以下命令: ``` $SPARK_HOME/sbin/start-master.sh --webui-port <备用Master的端口号> --properties-file <备用Master的配置文件> ``` 9. 配置自动故障切换,编辑spark-env.sh文件,添加以下内容: ``` export SPARK_DAEMON_JAVA_OPTS="$SPARK_DAEMON_JAVA_OPTS -Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=<Zookeeper集群的IP地址>:2181 -Dspark.deploy.zookeeper.dir=/spark -Dspark.deploy.maxExecutorRetries=<最大重试次数> -Dspark.deploy.executorRetryInterval=<重试时间间隔>" ``` 10. 在备用Master节点上启动Spark Master HA,执行以下命令: ``` $SPARK_HOME/sbin/start-master.sh --webui-port <备用Master的端口号> --properties-file <备用Master的配置文件> --ha ``` 11. 配置Spark Worker节点,编辑spark-env.sh文件,添加以下内容: ``` export SPARK_WORKER_OPTS="$SPARK_WORKER_OPTS -Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=<Zookeeper集群的IP地址>:2181 -Dspark.deploy.zookeeper.dir=/spark" ``` 12. 测试Spark Standalone HA,停止主节点上的Spark Master进程,观察备用Master是否接管了Spark集群的管理。 以上就是Spark Standalone HA安装步骤。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值