Spark2.1集群环境搭建小结(2)

4 Standalone模式部署

(1)在主机的$SPARK_HOME/conf目录下创建一下名为salves的文件。该文件需要包含所有将要启动Spark Workers机器的hostname,每行一个hostname:

vim slaves

node01

node02

node03

...

(2)配置主机及Spark Workers机器的/etc/hostname,修改主机名;

配置主机及Spark Workers机器的/etc/hosts文件,建立主机名和IP地址的映射关系;


(3)使用scp命令发送配置文件到所有的Workers节点,以node01为例:

scp $SPARK_HOME/conf/spark-env.sh  node01:$SPARK_HOME/conf

scp $SPARK_HOME/conf/slaves  node01:$SPARK_HOME/conf

发送时需要输入接收端机器的密码;


(4)使用openssh配置Master无密钥登录Slaves节点:

sudo apt-get install openssh-server //每台机器上安装

//master上安装

ssh-keygen -t rsa -P "" 

cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys

sudo /etc/init.d/ssh reload

ssh localhost  //master上验证SSH配置

scp $HOME/.ssh/authorized_keys node01:$HOME/.ssh/

node01上登陆验证SSH配置

(5)Master脚本启动集群

sbin/start-master.sh    //在脚本运行的机器上启动一个Master实例

sbin/start-slaves.sh    //conf/slaves中指定了机器名的机器上启动一个Slave实例

sbin/start-all.sh          //包括上述两个命令

sbin/stop-master.sh

sbin/stop-slaves.sh

sbin/stop-all.sh

jps查看当前机器正在运行的Spark相关进程

Master浏览器输入http://master:8080/,查看Workers登录信息;若登录失败:

(6)单独启动各节点

${SPARK_HOME}/sbin/start-slave.sh spark://$SPARK_MASTER_HOST:$SPARK_MASTER_PORT

如./start-slave.sh spark://master:7077

vim spark-au-org.apache.spark.deploy.worker.Worker-1-slave01.out

最后一行显示INFO Worker: Successfully registered with master spark://master:7077,则启动成功

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值