Spark学习笔记(一)Spark Cluster Mode

Spark Cluster Mode

首先了解一些概念:
在这里插入图片描述

  1. Application #用户通过Spark构建的程序,由Driver程序和executors程序组成。
  2. Application jar #个人理解是包含了Application所依赖的其他包的jar
  3. Driver program #master,SC生成的运行在程序入口(main())之下的程序,个人理解Driver program是对用户代码封装,并由内部的程序将job分解为若干个阶段及tasks,然后交由Executors处理。
  4. Cluster manager #包括standalone Yarn等,作用是为executors分配资源。
  5. Worker node #集群中的结点
  6. Executor #worker,具体执行Application的程序,每个application都会分配自己的Executor
  7. Task #作为一个工作单元分发给Executors
  8. Job #Application要做的任务
  9. Stage #Job分为若干个Stage,和hadoop将任务分为map、reduce类似

Spark应用作为独立的程序集合运行在集群之上,SparkContext(下文称SC)将Spark应用程序组织起来。

当运行一个Spark集群时,SC可以连接在一些cluster manager上,这些cm包括Spark自己的集群管理器,以及Mesos和Yarn,cm的作用是为Spark应用分配资源。SC与cm连接后,Spark获得集群节点上的executors,这些执行器为应用提供计算和存储,接着,应用程序的代码在executors上运行。
在这里插入图片描述
这样的架构有如下特点:

  1. 应用间独立。每个应用有他们自己的executor 进程,executors以多线程的方式在应用进行过程与执行tasks。
    这使得应用与应用之间隔离开来࿰
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值