Apache DolphinScheduler 2.X保姆级源码解析

点击上方蓝色字体,选择“设为星标”

回复"面试"获取更多惊喜

八股文教给我,你们专心刷题和面试

7a94eb9b1c7292973b2b8560b123d98e.png

Hi,我是王知无,一个大数据领域的原创作者。 

放心关注我,获取更多行业的一手消息。

在大数据领域,越来越多的企业拥抱开源软件,在这个背景下,我们针对数据调度工具如何正确选型?

中国移动云能力中心软件开发工程师徐海辉表示:古语云“工欲善其事必先利其器”,如果你正处于观望/不知如何下手/即将参与开源项目的小伙伴,我建议可以先从一个优秀的开源社区源代码的入手,我在中国移动目前主要负责数据服务,这次在 Apache DolphinScheduler 4月 Meetup 上为大家带来DolphinScheduler源码2.X解析,希望你有所收获。

本次演讲主要包含四个部分:

  • 开篇与源码环境准备

  • 服务启动流程

  • 任务执行流程

  • 个人思考与总结

Apache DolphinScheduler

徐海辉

中国移动云能力中心 软件开发工程师。从事大数据基础平台开发,主要负责中国移动Hadoop大数据平台组件Ranger 、移动云Lake House 产品的研发

5a0ff2b61282da17c03a679aa4ef9963.png

关键词:Apache DolphinScheduler源码2.X解析、源码环境准备、服务启动、任务执行

P.S.

Apache DolphinScheduler 源码下载链接:

https://dolphinscheduler.apache.org/zh-cn/download/download.html

01

开篇与源码环境准备

Apache DolphinScheduler是一个基于java开发的开源分布式工作流调度系统。致力于可视化操作任务及工作流之间的依赖关系,并可视化整个数据流过程;解决数据处理流程中错综复杂的依赖关系。

01

入手DolphinScheduler需要考虑的问题

  • 开源分布式的工作原理?

  • 工具可视化是体现在哪里?

  • Master和Worker之间如何通信?

  • 怎么体现工作流之间的依赖关系?

“Show me the code”

其实在这个过程中需要考虑的问题有很多,我们不妨从官方给的架构图先简单梳理一下,然后通过实际的使用,再去研究源码,一套组合拳下来就差不多了。

02

DolphinScheduler架构图

话不多说,开撸!

4个由源码启动的服务是:UI、MasterServer、WorkServer、AlertServer(还有LoggerServer图里面没有体现)

21842b537cb11264c12c915a5317537d.png

  • MasterServer & WorkServer依赖于Zookeeper协调服务中心注册

  • MasterServer & WorkServer 1-N组成集群,分别是单独的服务和进程

  • 执行任务支持的插件:Flink、Shell、Subflow、SQL、Procedure、Python、MR、Spark、Dependent等等

03

预先必备知识

  • Netty

一个异步的、基于事件驱动的网络应用框架,用于快速开发可维护、高性能的网络服务器和客户端

  • Zookeeper

一个分布式的,开放源码的分布式应用程序协调服务,它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。

  • 分布式锁

为了解决单机部署情况下的并发控制锁策略失效这个问题,需要一种跨机器的互斥机制来控制共享资源的访问

  • Quartz

定时自动执行任务

  • 多线程

很多小伙伴不明白Master和Worker之间是怎么通信的,DolphinScheduler是基于Netty框架来实现的。这里可以拓展一下,服务器之间的通信还有很多方式:

  • HTTP

HTTP:http其实是一种网络传输协议,基于TCP,规定了数据传输的格式。

  • REST API

REST API通信是通过JSON格式的字符串进行数据传输的,而字符串是可以在网络中穿透防火墙的。也就是说,REST API可以穿透防火墙。同时字符串也可以不用受开发语言的限制,可以同时完成后端与WEB,后端与APP(Android,IOS)之间的通信。

  • RPC

RPC通信又称远程过程调用,在内网中速度非常快,效率高。

如下图是准备相关环境的部署,并且我还提供了一个远程Debug的方式,这个不难理解,比如你想调试API,在启动过程中,它肯定会调用脚本,你只需要在脚本里面添加 Debug启动的一些参数,就可以进行一个远程的Debug。

edd48634ad8d5ceb6bf7cbeaa5371b2c.png

像框框里面的数字实际上是服务的端口号,如果跟本地服务/其他组件端口之间有冲突的话,对它可以进行一个修改。

02

服务启动流程

01

Master启动流程

  • MasterServer采用分布式无中心设计理念,基于Netty提供监听服务。

  • MasterServer服务启动时向Zookeeper注册临时节点,通过监听Zookeeper临时节点变化来进行容错处理。

  • MasterServer主要负责 DAG 任务切分、任务提交监控,并同时监听其它MasterServer和WorkerServer的健康状态。

启动步骤

  1. 启动Netty 服务端服务

  2. 注册到Zookeeper

  3. 启动Event处理器

  4. 启动scheduler定时任务

  5. 启动StateWheel处理器

↓↓↓源码一览↓↓↓

b5a61dbc4fb91be6b21d20463c418574.png

对应路径里面存放了MasterServer.java的类,里面有对应的main方法

05f6585d06cf05ac3bf9eb162a66a2ba.png

执行完构造函数后,会启动run方法及其各个组件

349c28f581dd941a05a0ae95a935e1b8.png

这里会提前构造参数

bc5a8fe4f8908d43920b4a6e2b568d36.png

调用start方法启动

db4c626750800c8d40c0b7f3838f9e7f.png

注册元数据信息到Zookeeper上面,值得一提的是这里采用的是临时路径,比如说在过程中服务断开了或者session过期,临时路径过一段时间会自己去Delete掉。

bdda3ceb73aee4ac0b9ec438bf634a24.png

启动调度服务

c9f0264bfaf50ebaa8b11196a5fb03c5.png

启动Quartz框架,启动完之后相当于是一个独立的服务.

小结:

  • 第一步是注册这个Netty

  • 第二步是向Zookeeper注册数据信息。

  • 第三步是启动相关组件和调度任务

  • 第四步是启动Quartz框架

02

Worker启动流程

  • WorkerServer采用分布式无中心设计理念,WorkerServer基于Netty提供监听服务。

  • WorkerServer主要负责任务的执行和提供日志服务。WorkerServer服务启动时向Zookeeper注册临时节点,并维持心跳。

拓展:防止出现断开、关闭等突发状况,这里会选择注册临时节点做出Delete动作。

启动步骤

  1. 启动Netty 服务端服务

  2. 注册到Zookeeper

  3. 维护workserver节点状态

  4. 启动TaskExecuteThread

  5. 启动RetryReportTaskStatusThread

↓↓↓源码一览↓↓↓

9f2480632902871502460df69f4928b5.png

找到WorkServer.java中的main方法,进程代码也位于DolphinScheduler-Server模块下面

a55d85b3fa78710d290d7951b6e6204c.png

启动Netty服务,过程中也会提供一些端口,以便和其他进程交互

12da07bc6fbed5e0439c1006aac421dd.png

向Zookeeper注册信息,其中WorkerregistryClient调用了Zookeeper的代码

9e603dab33a074eecaac68b9fc4f67b6.png

主要是处理和创建一些节点

41000047374c1faedbd2057891d2d9cc.png

启动组件,WorkerManagerThread主要是管理Master发过来的任务

1631340329d320f97ab5933fd1299754.png

启动组件,RetryReportTaskStatus主要是给Master反馈信息

03

任务执行流程

首先我们可以从UI界面具体分析一些工作流是如何运行的?

a811d5ec7adf7d99959df94502dddd9c.png

DolphinScheduler-api :  ExecutorController.java → startProcessInstance() → createCommand() →写入表 t_ds_command

然后通过代码的跟踪去看一下

fc4f6b35951f68d22894dddb81bf4f88.png

位于DolphinScheduler-API模块下的controller里面

01484193f96eb2a1ddb04a6539d26fea.png

Start-process-instance会调用ExecProcessInstance方法

1055dde6c67137fae6e763e0eb24166e.png

通过一系列的执行,最终会解析一些参数

c9db8321089a1137ff281a4cd143565f.png

解析完之后会生成一条记录(Create Command)

接下来MasterServer会不定时扫描表里面的记录,然后拉取出来,最后构建流程的实例

定时任务轮询获取

Dolphinscheduler-server: MasterSchedulerService.java → scheduleProcess() → findOneCommand() → 创建ProcessInstance

构建DAG并分发到worker

  • WorkflowExecuteThread.java → startProcess() → buildFlowDag() → submitPostNode() → submitStandByTask() → submitTaskExec()

  • TaskProcessor.java → dispatchTask() → 放入TaskPriorityQueue

  • TaskPriorityQueueConsumer.java: → dispatch()

  • ExecutorDispatcher.java → dispatch()

  • NettyExecutorManager.java → execute() →build command → doExecute() → ettyRemotingClient.send()

9c00e6f77aacea28aab270bd280f5076.png

Master启动完之后会不停拉取命令,然后解析完之后分发给Worker

ba7b9fd4770616d98fd0fdc32afa19b5.png

可以看一下它的run方法

b8ee556266f21b11a17dd4c88514e9c3.png

Scheduleprocess方法去找一条命令→Findonecommand,找到之后对它进行解析,创建工作流实例

bbe36c4b87222a3d227b56a876c14478.png

交给WorkflowExecuteThread线程执行

a4954b1926a0806c5fdf384596f87fe7.png

WorkflowExecuteThread run方法启动之后提交一个节点

526a31836ba874bf99259f5bd1838b5a.png

放到优先级队列里面,构造处理的一些参数,通过Netty分发

Worker接收任务并执行

  • NettyClientHandler.java → channelRead() → processReceived() → TaskExecuteProcessor.java → process() → workerExecuteQueue.offer()

  • WorkerManagerThread.java → workerExecuteQueue.take() 

  • TaskExecuteThread.java → build taskRequest → taskChannel.create(taskRequest) →AbstractTask init() → handle()

8b37a4181aa57458b5d4eb8a36b9f6da.png

通过taskExcutethread执行

be72557403c3022e883235b795f8a505.png

通过代码跟踪,我们发现是调用队列里面的offer方法

30c91a21863691a09ac57056e77149e9.png

通过channelRead方法接收Master发过来的信息,然后放在队列里面

7c59e03a01aac035dad4314980a384bd.png

通过while循环不停的处理队列里的任务

fc33db7a8f93f794ecc4269847ddfa7b.png

任务执行的参数都放在taskExcutiontext里面

1e2a634d1a0828048c4ffa62c15b56a0.png

TaskChannel主要识别脚本任务类型(Flink、Shell、Python等脚本)

c7e09a931d6fa739fff84ba9814841c4.png

任务执行完之后,通过ResponseCommand收集完信息反馈给Master

04

思考与总结

01

优化返回方式

我们看源码的过程当中发现,比如说在DolphinSchedulerr-api跟前端交互接口的时候,请求参数返回的时候,它没有用bean来进行处理,什么意思呢?就是说它参数比较混乱,比如说自己的一些恶应用要接入 DolphinScheduler,或者说后续社区要提供一些SDK,有bean的方式进行参数传递是比较好的。

575f156429b6dcde6b3ca274876f7ffe.png

02

表格式统一

还有一个在调研的过程当中,这个表的命名还有优化空间,表的命名格式有一些不同,比如说一些关系表,它后面加了 relation,然后有一些是加在前面的。

89090419d9450903c081037ce7c55da4.png

03

命名不友好

59d461d9473f2a45be10196c0183fdd6.png

在看源码的过程当中,发现它的一些命名是不太友好的,如上图

05

拥抱开源

你如果从事软件开发,你有可能会想花时间去打造一下属于你自己的IP,比如说你负责具体某个组件,成为核心开发者。

01

我们为什么要去学习开源?

1、提升技术功底:学习源码里的优秀设计思想,比如疑难问题的解决思路,一些优秀的设计模式,整体提升自己的技术功底,比如说在DS里面,用了大量的线程去处理一些Event,然后使用了去中心化,还有使用队列,优先级队列等等

2、深度掌握技术框架:源码看多了,对于一个新技术或框架的掌握速度会有大幅提升,比如说你要去学习 DS或者对它进行一个二次开发,你肯定要去了解一下其他知识,比如说Netty,还有Zookeeper

3、快速定位线上问题:遇到线上问题,特别是框架源码里的问题(比如bug),能够快速定位

4、拥抱开源社区:参与到开源项目的研发,结识更多大牛,积累更多优质人脉看源码

02

在开源社区的学习方法

  • 先使用:先看官方文档快速掌握框架的基本使用

  • 抓主线:找一个demo入手,顺藤摸瓜快速看一遍框架的主线源码,画出源码主流程图,切勿一开始就陷入源码的细枝末节,否则会把自己绕晕,凭经验猜

  • 画图做笔记:总结框架的一些核心功能点,从这些功能点入手深入到源码的细节,边看源码边画源码走向图,并对关键源码的理解做笔记,把源码里的闪光点都记录下来,后续借鉴到工作项目中,理解能力强的可以直接看静态源码,也可以边看源码边debug源码执行过程,观察一些关键变量的值

  • 整合总结:所有功能点的源码都分析完后,回到主流程图再梳理一遍,争取把自己画的所有图都在脑袋里做一个整合。

如果这个文章对你有帮助,不要忘记 「在看」 「点赞」 「收藏」 三连啊喂!

02177e8f97020c46bd983a8f771d7e6c.png

f6db0760c3903f0ff86e9d32badff51f.png

2022年全网首发|大数据专家级技能模型与学习指南(胜天半子篇)

互联网最坏的时代可能真的来了

我在B站读大学,大数据专业

我们在学习Flink的时候,到底在学习什么?

193篇文章暴揍Flink,这个合集你需要关注一下

Flink生产环境TOP难题与优化,阿里巴巴藏经阁YYDS

Flink CDC我吃定了耶稣也留不住他!| Flink CDC线上问题小盘点

我们在学习Spark的时候,到底在学习什么?

在所有Spark模块中,我愿称SparkSQL为最强!

硬刚Hive | 4万字基础调优面试小总结

数据治理方法论和实践小百科全书

标签体系下的用户画像建设小指南

4万字长文 | ClickHouse基础&实践&调优全视角解析

【面试&个人成长】2021年过半,社招和校招的经验之谈

大数据方向另一个十年开启 |《硬刚系列》第一版完结

我写过的关于成长/面试/职场进阶的文章

当我们在学习Hive的时候在学习什么?「硬刚Hive续集」

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Apache DolphinScheduler是一个新一代分布式大数据工作流任务调度系统,致力于“解决大数据任务之间错综复杂的依赖关系,整个数据处理开箱即用”。它以 DAG(有向无环图) 的方式将任务连接起来,可实时监控任务的运行状态,同时支持重试、从指定节点恢复失败、暂停及 Kill任务等操作。目前已经有像IBM、腾讯、美团、360等400多家公司生产上使用。 调度系统现在市面上的调度系统那么多,比如老牌的Airflow, Oozie,Kettle,xxl-job ,Spring Batch等等, 为什么要选DolphinSchedulerDolphinScheduler 的定位是大数据工作流调度。通过把大数据和工作流做了重点标注. 从而可以知道DolphinScheduler的定位是针对于大数据体系。DolphinScheduler 发展很快 很多公司调度都切换到了DolphinScheduler,掌握DolphinScheduler调度使用势在必行,抓住新技术机遇,为跳巢涨薪做好准备。 优秀的框架都是有大师别的人写出来的,包含了很多设计思想和技术。DolphinScheduler也不例外,它是一个非常优秀的框架,用到很多技术和设计思想,本课程会带大家深入DolphinScheduler框架源码,包括设计的思想和技术都会讲解,DolphinScheduler源码很多,会按照模块进行讲解,学习完课程后,不仅可以熟悉DolphinScheduler使用,而且可以掌握很多优秀的设计思想和技术,给自己的技术带来很大提升,为跳巢涨薪做好准备。
Apache DolphinScheduler(incubator,原EasyScheduler)是一个大数据分布式工作流任务调度系统,主要解决大数据研发过程中ETL处理错综复杂的依赖关系,而不能直观监控任务健康状态等问题。DolphinScheduler以DAG流式的方式将Task组装起来,可实时监控任务的运行状态,同时支持重试、从指定节点恢复失败、暂停及Kill任务等操作。 设计特点:一个分布式易扩展的可视化DAG工作流任务调度系统。致力于解决数据处理流程中错综复杂的依赖关系,使调度系统在数据处理流程中开箱即用。 其主要目标如下: 1、以DAG图的方式将Task按照任务的依赖关系关联起来,可实时可视化监控任务的运行状态 2、支持丰富的任务类型:Shell、MR、Spark、SQL(mysql、postgresql、hive、sparksql),Python,Sub_Process、Procedure等 3、支持工作流定时调度、依赖调度、手动调度、手动暂停/停止/恢复,同时支持失败重试/告警、从指定节点恢复失败、Kill任务等操作 4、支持工作流优先、任务优先及任务的故障转移及任务超时告警/失败 5、支持工作流全局参数及节点自定义参数设置 6、支持资源文件的在线上传/下载,管理等,支持在线文件创建、编辑 7、支持任务日志在线查看及滚动、在线下载日志等 8、实现集群HA,通过Zookeeper实现Master集群和Worker集群去中心化 9、支持对Master/Worker cpu load,memory,cpu在线查看 10、支持工作流运行历史树形/甘特图展示、支持任务状态统计、流程状态统计 11、支持补数 12、支持多租户 13、支持国际化 14、还有更多等待伙伴们探索
Apache DolphinScheduler是一个新一代分布式大数据工作流任务调度系统,致力于“解决大数据任务之间错综复杂的依赖关系,整个数据处理开箱即用”。它以 DAG(有向无环图) 的方式将任务连接起来,可实时监控任务的运行状态,同时支持重试、从指定节点恢复失败、暂停及 Kill任务等操作。目前已经有像IBM、腾讯、美团、360等400多家公司生产上使用。 调度系统现在市面上的调度系统那么多,比如老牌的Airflow, Oozie,Kettle,xxl-job ,Spring Batch等等, 为什么要选DolphinSchedulerDolphinScheduler 的定位是大数据工作流调度。通过把大数据和工作流做了重点标注. 从而可以知道DolphinScheduler的定位是针对于大数据体系。 DolphinScheduler是非常强大的大数据调度工具,有以下一些特点:1、通过拖拽以DAG 图的方式将 Task 按照任务的依赖关系关联起来,可实时可视化监控任务的运行状态;2、支持丰富的任务类型;3、支持工作流定时调度、依赖调度、手动调度、手动暂停/停止/恢复,同时支持失败重试/告警、从指定节点恢复失败、Kill 任务等操作;4、支持工作流全局参数及节点自定义参数设置;5、支持集群HA,通过 Zookeeper实现 Master 集群和 Worker 集群去中心化;6、支持工作流运行历史树形/甘特图展示、支持任务状态统计、流程状态统计;7、支持补数,并行或串行回填数据。课程会带大家构建DolphinScheduler大数据调度平台,实战讲解多种任务调度配置,会基于案例讲解DolphinScheduler使用,让大家在实战中掌握DolphinScheduler。 DolphinScheduler 发展很快 很多公司调度都切换到了DolphinScheduler,掌握DolphinScheduler调度使用势在必行,抓住新技术机遇,为跳巢涨薪做好准备。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值