通过spark-shell脚本,剖析spark程序提交流程

本文通过分析spark-shell脚本,揭示了Spark程序提交的详细步骤。从调用spark-submit到执行spark-class,再到加载环境变量,最后由org.apache.spark.launcher.Main启动SparkSubmit过程,详尽地阐述了每个阶段的关键操作,包括参数解析、环境设置和SparkSubmitCommandBuilder的作用。
摘要由CSDN通过智能技术生成

vim打开spark-shell脚本可以看到下面这段脚本

spark-shell代码片段:
spark-shell代码片段

可以看到在spark-shell脚本中调用了spark-submit脚本,打开spark-submit脚本发现包含如下脚本:
image

可以看到在spark-submit脚本中,首先检查是否设置了SPARK_HOME,然后调用了spark-class,增加了参数SparkSubmit。

打开spark-class脚本

image
首先调用了load-spark-env.sh脚本去加载spark-env.sh,设置scala版本,然后寻找java,并赋值给变量RUNNER。

在spark-class中最重要的是下面这段脚本,首先循环读取ARG参数,加入到CMD中。然后执行了

R U N N E R " − c p " RUNNER" -cp " RUNNER"cp"LAUNCH_CLASSPATH” org.apache.spark.launcher.Main "$@

这个是真正执行的第一个spark的类。
image

org.apache.spark.launcher.Main类

 public static void main(String[] argsArray) throws Exception {
    checkArgument(argsArray.length > 0, "Not enough arguments: missing class name.");

    List<String> args = new ArrayList<>(Arrays.asList(argsArray));
    String className = args.remove(0);

    boolean printLaunchCommand = !isEmpty(System.getenv("SPARK_PRINT_LAUNCH_COMMAND"));
    AbstractCommandBuilder builder;
    //根据传进来的参数创建命令SparkSubmitCommandBuilder或者SparkClassCommandBuilder
    if (
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值