Spark(25)-Spark运行基本流程解释

基本运行流程(四步)

SparkContext对象,它代表了应用程序和集群之间的连接通道

SparkContext 

在解释器中,当我们进入spark-shell时,SparkContext的sc对象是系统自动创建的,可以通过sc对象访问。如果独立编程我们自己创建new一个

资源管理器

yarn,mesos,Spark自带的都行

 

第三步,关键的一步

部分代码都是一次次对RDD的操作,比如我们平台的算子

划分Stage

TaskScheduler使用计算向数据靠拢原则,分配任务,因为移动计算比移动数据更好用!把任务发配到数据所在的机器即把代码在对应的Executor上.

 第四步 

 Spark运行架构特点

 系统会自动分配Executor进程的,并且多线程,启动时间快,以线程启动开销小

数据本地性:分发任务时,优先把任务扔到数据所在的地方,让数据本地,不需要来回的跨机器传输数据。

推测执行:数据在机器1上,但机器1已经满了,任务来了那怎么办,是等着还是转移呢,他自己衡量优劣

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值