SparkContext启动分析

SparkContext是所有spark程序的引擎,它的配置参数由SparkConf负责。SparkConf内部主要是通过ConcurrentHashMap来维护Spark配置属性。
SparkContext的初始化步骤如下:
1.创建Saprk执行环境SparkEnv;
2.创建RDD清理器metadataCleaner;
3.创建并初始化SparkUI;
4.Hadoop相关配置及Executor环境变量的设置;
5.创建任务调度TaskScheduler;
6.创建和启动DAGscheduler;
7.TaskScheduler的启动;
8.初始化模块管理器BlockManager;
9.启动测量系统MetricsSystem;
10.创建和启动Executor分配管理器ExecutorAllocationManager;
11.ContextCleaner的创建与启动;
12.Spark环境更新;
13.创建DAGSchedulerSource和BlockManagerSource;
14.将SparkContext标记为激活;

在SparkContext中,通过createTaskScheduler方法来创建一个Taskscheduler,利用模式匹配,来生成TaskschedulerImpl和不同环境下的SchedulerBackend。
TaskschedulerImpl源码给出的解释如下:
1.顶层通过操作一个SchedulerBackend,针对不同类的cluster(standalone,yarn,mesos),调度taskÿ

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值