Spark运行脚本解析 - start-all.sh

      部署Standalone Cluster模式的Spark,可以通过2种方法来启动Cluster:

      1)通过手工的方式,单独在Master节点上启动master实例;然后,再单独在Worker节点上启动worker实例;

      2)通过Spark自带的运行脚本来管理启动,只需要运行./sbin/start-all.sh,就可以自动启动master和所有的worker实例。

      本文解析的就是start-all.sh这个脚本,代码如下:

#!/usr/bin/env bash

# 启动spark的所有守护进程
# 在执行本脚本的机器上启动1个marster实例
# 在每1个conf/slaves中指定的节点上启动1个worker实例

if [ -z "${SPARK_HOME}" ]; then
  export SPARK_HOME="$(cd "`dirname "$0"`"/..; pwd)"
fi

# 加载Spark相关配置信息
. "${SPARK_HOME}/sbin/spark-config.sh"

# 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值