关闭

spark的架构

264人阅读 评论(0) 收藏 举报
分类:

spark架构采用了分布式计算中的master-slave模型,master是对应集群中含有master进程的节点,slave是集群中含有worker进程的节点,master作为整个集群的控制器,负责整个集群的正常运行,worker相当于是计算节点,接受主节点命令与进行状态汇报。

Executor负责任务的执行,client作为用户的客户端负责提交应用,driver负责控制一个应用的执行 

spark集群部署后,需要在主节点和从节点分别启动master进程和worker进程,对真个集群进行控制,在一个spark应用的执行过程中。driver和worker是两个重要角色

driver程序是应用逻辑执行的起点,负责作业的调度,即task任务的分发,而多个worker用来管理计算节点和创建executor并行处理任务,在执行阶段,driver会将task和task所依赖的file和jar序列化后传递给对于的worker机器,同时executor对相应的数据分区的任务进行处理。


下面详细介绍spakr中的架构基本组件


clustermanager 在standalone模式中即为master主节点, 控制整个集群,监控worker, 在yarn中为资源管理器

worker 从节点, 负责控制计算节点, 启动executor 或者 driver 在yarn模式中为nodemanage 负责计算节点的控制

driver 运行 application的main函数并创建sparkcontxt

executor执行器,在woker node上执行任务的组件,用于启动线程池运行任务,每个application拥有独立的一组executors

sparkcontext 整个应用的上下文,控制应用的生命周期

rdd  spark 的基本计算单元,一组rdd可形成执行的有向五环图rdd graph

dag scheduler 根据作业构建基于stage额 dag ,听提交stage给task scheduler

taskscheduler  将任务分发给executor执行

spark env  县城级别的上下文,存储运行时的重要组件的引用。

mapoutput tracker 负责shuffle元信息的存储。

broadcastmanager 负责广播变量的控制与元信息的存储


spark的整体流程为: client提交应用,master找到一个worker启动driver,driver向master或者资源管理器申请资源,之后将应用转化为rdd graphh 再有dagscheduler将rdd graph转化为stage的有向无环图 提交给taskscheduler,由taskscheduler提价任务给executor执行, 在任务执行的过程中。其他组件协同工作,确保整个应用顺利执行。


spark运行逻辑




0
0

猜你在找
【直播】机器学习&数据挖掘7周实训--韦玮
【套餐】系统集成项目管理工程师顺利通关--徐朋
【直播】3小时掌握Docker最佳实战-徐西宁
【套餐】机器学习系列套餐(算法+实战)--唐宇迪
【直播】计算机视觉原理及实战--屈教授
【套餐】微信订阅号+服务号Java版 v2.0--翟东平
【直播】机器学习之矩阵--黄博士
【套餐】微信订阅号+服务号Java版 v2.0--翟东平
【直播】机器学习之凸优化--马博士
【套餐】Javascript 设计模式实战--曾亮
查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:332299次
    • 积分:4796
    • 等级:
    • 排名:第5978名
    • 原创:39篇
    • 转载:872篇
    • 译文:2篇
    • 评论:25条
    最新评论