spark任务提交方式standalone-client和standalone-cluster对比

spark中Standalone有两种任务提交模式,分别是Standalone-client模式和Standalone-cluster模式,其区别如下:

一、standalone-client任务提交方式

1、client模式提交任务后,会在客户端启动Driver。

2、Driver与Master通信,为当前的Application申请资源。

3、Master接受到资源申请,Master跟Worker进行RPC通信,让Worker启动Executor。

4、Worker启动Executor。

5、Executor跟Driver进行通信。

6、rdd触发action操作后,会根据最后这个rdd从后往前推断依赖关系,遇到shuffle就好切分stage,会递归切分,递归的出口是某个rdd没有父rdd了,DAGScheduler切分完stage后,先提交前面的stage,执行完后再提交后面的stage,stage会生产task,一个stage会生产很多业务逻辑相同的task,然后将以TaskSet的形式传递给TaskScheduler,然后TaskScheduler将Task序列化,根据资源情况,发送给Executor。

7、Executor接收到Task,先将task反序列化,然后将task用一个实现了Runnable接口的实现类包装起来,然后将该包装类丢入到线程池,然后包装类的run方法就会被执行,进而调用task的计算逻辑。

二、standalone-cluster任务提交方式

1、cluster模式下提交应用程序后,会向Master申请启动Driver。

2、Master接受请求后,向Worker请求启动Driver。

3、Worker 收到请求后启动 Driver。

4、Driver启动后,向Master申请资源。

5、资源申请成功后,Master跟Worker进行RPC通信,让Worker启动Executor

6、Worker启动Executor

7、Executor跟Driver进行通信,Driver将Task发送到Worker执行。

8、Worker将执行情况和执行结果返回给Driver端。

总结:Standalone-client模式Driver进程是在客户端启动的,这里的客户端是指提交任务的那个节点。Driver端可以看到Task执行的情况。

Standalone-cluster模式Driver进程是在集群中某一台Worker上执行的,客户端无法查看Task执行情况。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

伊一cherry大数据

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值