Spark的Cluster模式架构图

一、在Spark的官网文件中,可以看到Spark的Cluster模式架构图,

浏览器输入:https://spark.apache.org/docs/latest/cluster-overview.html

(1)DriverProgram 就是程序员设计的Spark程序,在Spark中必须定义SparkContext,它是开发Spark应用程序的入口

(2)SparkContext是通过Cluster Manager管理整个集群,集群中包含多个Worker Node,程序运行时,一个worker启动Driver,其他Worker Node启动Executor负责执行任务

(3)executor是真正执行作业的地方,一个集群包含多个Executor,每个Executor接受Driver的命令执行task,一个Executor可以执行一到多个Task

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值