山东大学软件工程应用与实践: Spark(二) 代码分析

本文详细介绍了SparkContext在Spark应用程序中的核心地位,以及其初始化过程,包括创建SparkEnv、配置检查、TaskScheduler和Executor相关设置。SparkConf是配置中心,SparkMaster和SparkAppName是必须指定的属性。SparkEnv在Driver和Executor进程中存在,用于执行相关的对象管理。
摘要由CSDN通过智能技术生成

2021SC@SDUSC


目录

1.SparkContext概述

2.创建执行环境SparkEnv


1.SparkContext概述

Spark Driver 用于提交用户应用程序,实际可以看作Spark的客户端。所以了解Spark Driver的初始化可以帮助我们理解用户应用程序在客户端的处理过程。

Spark Driver的初始化始终围绕着SparkContext的初始化。SparkContext可以算得上是所有Spark应用程序的发动机引擎,轿车想要跑起来,发动机首先要启动。SparkContext初始化完成,才能向Spark集群提供任务。比如在平坦的公路上,发动机只需以较低的转速、较低的功率就可以游刃有余;在山区,你可能需要一台能够提供大功率的发动机才能满足你的需求。这些参数都是驾驶员操纵油门、档位等传送给发动机的,而SparkContext的配置参数则由SparkConf负责,SparkConf就是你的操作面板。

SparkConf的构造很简答,主要是通过ConcurrentHashMap来维护各种Spark的配置属性。SparkConf代码结构如下图所示

class SparkConf(loadDefaults:Boolean) extends Cloneable with Logging{
    import SparkConf.
    def this(0 = this(true)
    private val settings = new ConcurrentHashMap[String, String] ()
    if (loadDefaults){
    //加载任何以spark . 开头的系统属性
    for ((key, value) <- Utils.getSystemProperties if key.startsWith
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值