Spark:02-高可用搭建

1.配置高可用
 6.1启动zookeeper
 自己写了zookeeper启动脚本(脚本如下,后面会写zookeeper课程)

    #!/bin/bash
    for host in bigdata01 bigdata02 bigdata03
    do
    echo "${host}:${1}ing... ..."
    ssh $host "source /etc/profile;/root/training/zookeeper-3.4.6/bin/zkServer.sh $1"
    done

    sleep 2
    for host in bigdata01 bigdata02 bigdata03
    do
    ssh $host "source /etc/profile;/root/training/zookeeper-3.4.6/bin/zkServer.sh status"
    done

启动命令:zkmanage.sh start

2.配置高可用
    # - SPARK_WORKER_CORES, to set the number of cores to use on this machine
    # - SPARK_WORKER_MEMORY, to set how much total memory workers have to give executors (e.g. 1000m, 2g)
    export JAVA_HOME=/root/training/jdk1.8.0_144/
    #export SPARK_WORKER_CORES=2
    #export SPARK_WORKER_MEMORY=2g
    #export SPARK_MASTER_HOST=bigdata01 无需配置
    #export SPARK_MASTER_PORT=7077   默认端口7077
    export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=bigdata01:2181,bigdata02:2181,bigdata03:2181 -Dspark.deploy.zookeeper.dir=/spark"
     
     快捷键 ctrl+R
     for  i in {2..4};do scp -r /root/training/spark-2.2.0-bin-hadoop2.7/conf/spark-env.sh bigdata0$i:$PWD ;done
 
4.启动高可用
    删除 rmr /spark  防止已经在zookeeper上注册过

    bigdata01
    cd /root/training/spark-2.2.0-bin-hadoop2.7
    sbin/start-all.sh 
    bigdata02
    cd /root/training/spark-2.2.0-bin-hadoop2.7
    sbin/start-master.sh
 
 http://bigdata01:8080/ (ALIVE)
 http://bigdata02:8080/ (STANDBY)
 
 
3.测试高可用
    jps
    16711 Master
    kill -9 16711
     http://bigdata02:8080/ (ALIVE)

    启动bigdata01  sbin/start-master.sh
      http://bigdata01:8080/ (STANDBY)
    
4.停止高可用集群

sbin/stop-all.sh
sbin/stop-master.sh
 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值