SparkCore执行方式核心知识

一、Spark作业调度方式
1、Local
测试或实验性质的本地运行模式
Local[N]是用单机的多个线程来模拟Spark分布式计算,通常用来验证开发出来的应用程序逻辑上有没有问题。
其中N代表可以使用N个线程,每个线程拥有一个core。如果不指定N,则默认是一个线程(该线程有一个core)
2、standalone:指定节点
使用sparksubmit提交任务的时候(包括idea或其他开发工具使用new Sparkconf()来运行任务的时候),Driver运行在Client
3、Yarn
①Yarn client 测试用使用
spark跑在hadoop的集群中,所以为了做到资源能够均衡调度,会使用yarn作为spark的cluster Manager,来为spark的应用程序分配资源。
在执行Spark应用程序前,要启动hadoop的各种服务。由于已经有了资源管理器,所以不需要启动spark的Master、Worker守护进程
Driver是在客户端执行
②Yarn cluster 生产中用
spark submit脚本提交,向yarn(RM)中提交ApplicationMaster程序、AM启动的命令和需要在Executor中运行的程序等
Resource Manager在集群中的某个NodeManager上运行ApplicationMaster,该AM同时会执行Driver程序。紧接着,会在各NoderManager上执行

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值