从Spark架构中透视job

             在Spark中一个Application的执行流程可以表示为:


     即:当Spark集群启动的时候,首先启动Master进程负责整个集群资源的管理和分配,并接受作业的提交,且为作业分配计算资源。每个工作节点默认情况下都会启动一个Worker Process来管理当前节点的Memory和CPU等计算资源,并向Master汇报Worker还能够正常工作;当用户提交作业给Master的时候,Master会为程序分配ID并分配计算资源,默认情况下会为当前的应用程序在每个Worker Process下面分配一个CoarseGrainedEcecutorBachend进程,该进程默认情况下会最大化的使用当前节点的内存和CPU。

     在此过程中需要注意以下几个问题:

     1、我们说Worker Process管理当前节点的内存和CPU等计算资源,实质上是通过Master来管理每台机器上的计算资源的。

     2、Worker节点上有Worker Process,Worker Process会接受Master的指令为当前要运行的应用程序分配CoarseGrainedEcecutorBachend进程。

     3、Stage里面的内容一定是在Executor中执行的,而且Stage必须是从前往后执行。

      4、Spark的一个应用程序中可以因为不同的Action产生不同的job,每个job至少有一个Stage。

   

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值