SPARK动态添加节点

spark集群使用hadoop用户运行,集群机器如下:

1DEV-HADOOP-01192.168.9.110Master
2DEV-HADOOP-02192.168.9.111Worker
3DEV-HADOOP-03192.168.9.112Worker

 

现在需要添加一台192.168.9.113 机器名DEV-HADOOP-04的节点作为Worker.需要执行一下操作:

 

  1. 配置Master到新增节点hadoop用户的无密码登录

  2. 每个节点添加的/etc/hosts

  3. 安装JDK1.8.0_60

  4. 安装scala

    1. 从Master拷贝scala scp -r scala-2.11.7 root@192.168.9.113:/data/server/

    2. 设置环境变量 /etc/profile

      1. export SCALA_HOME=/usr/scala/scala-2.11.7

      2. 使配置生效 source /etc/profile

    3. 更改scala-2.11.7的用户和组 chown -R hadoop:hadoop scala-2.11.7

  5. 安装spark

    1. 从Master拷贝spark scp -r spark-1.5.0-bin-hadoop2.6 root@192.168.9.113:/data/server/

    2. 配置环境变量 /etc/profile

      1. export SPARK_HOME=/data/server/spark-1.5.0-bin-hadoop2.6

      2. export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

      3. 使配置生效 source /etc/profile

  6. 修改集群的slaves配置文件,新增新增节点DEV-HADOOP-03

  7. 启动新增节点

    1. sbin/start-slave.sh spark://DEV-HADOOP-01:7077

  8. 新增节点启动验证

    1. 执行jps命令,slave可以看到Worker进程

  9. 查看Spark UI

    1. 看到Workers中有新增节点

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值