Spark Application

名称解释
Application被提交的Spark作业。由一个Driver和多个Executor构成。
Driver program运行main主函数并创建SparkContext的进程。
Cluster manager获取资源的额外服务
Worker node运行Spark程序的节点
Executor节点上运行task和存储数据的进程。每一个Application都有自己的多个Executor
TaskExecutor中的工作单元
Job由多个tasks组成的并行计算
Stage每一个job将task划分为多个stage

当程序要运行在集群时,sparkContext会连接到用于分配资源的集群管理器(standalone, yarn, k8s等)。
连接后,Spark会申请Executor。
然后, SparkContext会将Application代码发送到各个Executor。
最后SparkContext向Executor发送task去计算。

转载于:https://my.oschina.net/dreamness/blog/3094009

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值