Apache DolphinScheduler征稿-- DolphinScheduler--master与worker的交互过程

本文正在参与 “拥用源 – Apache DolphinScheduler有奖征稿活动”

海豚调度dolphinscheduler目前是 Apache 顶级项目,作为国内优秀的开源项目,它的架构设计理念会有很多值得我们学习和借鉴。

海豚调度dolphinscheduler是分布式易扩展的可视化DAG工作流任务调度系统

本文会包含如下内容:

  • 海豚调度任务执行过程中master与worker的交互过程
  • 如何处理过程中的异常

本篇文章适合人群:架构师、技术专家以及对任务调度非常感兴趣的高级工程师

本文以海豚1.3.5的源代码进行分析的。

1. master与worker的消息处理器

DolphinScheduler的master与worker是不同的JVM进程,正常情况下部署在不同的服务器中,master与worker是基于netty实现RPC交互的,共用到7个消息处理器

处理器在WorkerServer和MasterServer启动时,注册到NettyRemotingServer的NettyServerHandler中processors集合中

在netty channel的接收到channelRead数据,并转换为Command时,由NettyServerHandler中的processReceived方法,根据commandType交给对应的处理器处理。

所属进程名称处理器名称功能描述
MasterServerTaskAckProcessor处理TaskExecuteAckCommand消息,将消息添加到TaskResponseService的任务响应队列中
MasterServerTaskResponseProcessor处理TaskExecuteResponseCommand消息,将消息添加到TaskResponseService的任务响应队列中
MasterServerTaskKillResponseProcessor处理TaskKillResponseCommand消息,并在日志中打印消息内容
WorkerServerTaskExecuteProcessor处理TaskExecuteRequestCommand消息,并发送TaskExecuteAckCommand到master,提交任务执行
WorkerServerDBTaskAckProcessor处理DBTaskAckCommand消息,针对执行成功的,从ResponceCache中删除
WorkerServerDBTaskResponseProcessor处理DBTaskResponseCommand消息,针对执行成功的,从ResponceCache中删除
WorkerServerTaskKillProcessor处理TaskKillRequestCommand消息,调用kill -9 pid杀死任务对应的进程,并向master发送TaskKillResponseCommand消息

2. master与worker的交互

DolphinScheduler的master与worker是不同的JVM进程,正常情况下部署在不同的服务器中,master与worker是基于netty实现RPC交互的,整个过程都是异步的。

正常的交互流程如下图:

  1. MasterServer根据流程定义产生的DAG进行任务切分,将每个任务放在MasterBaseTaskExecThread的子类中进行执行。
    只有MasterTaskExecThread子类在将Callable提交到线程池,调用call方法时,执行submitWaitComplete方法,
    提交就是将任务加到任务优先级队列中taskPriorityQueue
  2. TaskPriorityQueueConsumer线程从taskPriorityQueue队列,根据fetchTaskNum【通过master.dispatch.task.num指定】参数,获取fetchTaskNum个任务信息,然后针对这批任务进行派发。在任务派发前构建ExecutionContext
  3. ExecutorDispatcher派发任务
  4. 使用配置文件中指定的负载均衡算法,选择执行任务的worker
  5. 将任务下发(send)到指定的worker执行。
  6. TaskExecuteProcessor接收到TaskExecuteRequestCommand后,发送任务确认消息【TaskExecuteAckCommand】到master,并启动一个TaskExecuteThread执行这个任务,任务执行完成后发送执行结果到master
  7. TaskAckProcessor接收到TaskExecuteAckCommand后,构建一个ACK类型的TaskResponseEvent,放到TaskResponseService的任务响应队列中
  8. TaskResponseProcessor接收到TaskExecuteResponseCommand后,构建一个ACK类型的TaskResponseEvent,放到TaskResponseService的任务响应队列中
  9. TaskResponseService线程将接收到的TaskResponseEvent放到任务响应队列中,并从列表中take TaskResponseEvent, 根据Event任务,进行任务状态的更新

    如果是ACK EVENT,则更新任务实例的执行开始时间、执行worker、ExecutePath及logPath等信息,更新完成后发送DBTaskAckCommand到worker

           如果是RESULT EVENT,则更新任务实例的执行结束时间、ProcessId、AppIds等信息,更新完成后发送DBTaskResponseCommand到worker

    10.   DBTaskAckProcessor接收到DBTaskAckCommand消息后,如果ExecutionStatus为SUCCESS,则将任务从ackCache中删除

    11.   DBTaskResponseProcessor接收到DBTaskResponseCommand消息后,如果ExecutionStatus为SUCCESS,则将任务从responeCache中删除

    12.  在MasterTaskExecThread的submitWaitComplete方法中,会循环检查任务实例是否完成,在执行完步骤11后,则此任务实例完成,将循环也将退出

    13. 针对派发失败的任务,添加到failedDispatchTasks,在这批任务派发完毕后,重新将失败的任务添加到taskPriorityQueue,如果taskPriorityQueue中的任务数小于失败的任务数,则程序休眠1秒

3. 交互异常情况处理

3.1 任务下发到worker失败与重试

 

  1. 将任务send到具体的worker时,如果失败,会重试3次,如果三次都失败,则将此worker节点从任务对应的任务组worker列表中删除,并从剩下的worker中选择第一
  2. 如果失败,则重复步骤1
  3. 如果任务组worker列表中所有worker都在重试3次后失败,则任务下发失败
  4. 将失败的任务添加到failedDispatchTasks列表中,因为master是按批处理任务,在这批任务派发完毕后,重新将失败的任务添加到taskPriorityQueue,如果taskPriorityQueue中的任务数小于失败的任务数,则程序休眠1秒
//TaskPriorityQueueConsumer 117行
if (!failedDispatchTasks.isEmpty()) {
                    for (String dispatchFailedTask : failedDispatchTasks) {
                        taskPriorityQueue.put(dispatchFailedTask);
                    }
                    // If there are tasks in a cycle that cannot find the worker group,
                    // sleep for 1 second
                    if (taskPriorityQueue.size() <= failedDispatchTasks.size()) {
                        TimeUnit.MILLISECONDS.sleep(Constants.SLEEP_TIME_MILLIS);
                    }
                }


//NettyExecutorManager 109行
 Host host = context.getHost();
        boolean success = false;
        while (!success) {
            try {
                doExecute(host,command);
                success = true;
                context.setHost(host);
            } catch (ExecuteException ex) {
                logger.error(String.format("execute command : %s error", command), ex);
                try {
                    failNodeSet.add(host.getAddress());
                    Set<String> tmpAllIps = new HashSet<>(allNodes);
                    Collection<String> remained = CollectionUtils.subtract(tmpAllIps, failNodeSet);
                    if (remained != null && remained.size() > 0) {
                        host = Host.of(remained.iterator().next());
                        logger.error("retry execute command : {} host : {}", command, host);
                    } else {
                        throw new ExecuteException("fail after try all nodes");
                    }
                } catch (Throwable t) {
                    throw new ExecuteException("fail after try all nodes");
                }
            }
        }

3.2 任务ack及result上报重试

worker在接收到TaskExecuteRequestCommand命令后,会向master发送任务确认消息;worker在任务执行完成后,也会向master发送任务执行完成消息;在发送消息前,会调用ResponceCache的cache方法将方法缓存。

RetryReportTaskStatusThread线程每隔5分钟,判断responceCache中ackCache和responseCache中是否为空,如果不为空,则将命令TaskExecuteAckCommand或TaskExecuteResponseCommand重新发送到master节点

本文正在参与 “拥用源 – Apache DolphinScheduler有奖征稿活动”

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
Apache DolphinScheduler(incubator,原EasyScheduler)是一个大数据分布式工作流任务调度系统,主要解决大数据研发过程中ETL处理错综复杂的依赖关系,而不能直观监控任务健康状态等问题。DolphinScheduler以DAG流式的方式将Task组装起来,可实时监控任务的运行状态,同时支持重试、从指定节点恢复失败、暂停及Kill任务等操作。 设计特点:一个分布式易扩展的可视化DAG工作流任务调度系统。致力于解决数据处理流程中错综复杂的依赖关系,使调度系统在数据处理流程中开箱即用。 其主要目标如下: 1、以DAG图的方式将Task按照任务的依赖关系关联起来,可实时可视化监控任务的运行状态 2、支持丰富的任务类型:Shell、MR、Spark、SQL(mysql、postgresql、hive、sparksql),Python,Sub_Process、Procedure等 3、支持工作流定时调度、依赖调度、手动调度、手动暂停/停止/恢复,同时支持失败重试/告警、从指定节点恢复失败、Kill任务等操作 4、支持工作流优先级、任务优先级及任务的故障转移及任务超时告警/失败 5、支持工作流全局参数及节点自定义参数设置 6、支持资源文件的在线上传/下载,管理等,支持在线文件创建、编辑 7、支持任务日志在线查看及滚动、在线下载日志等 8、实现集群HA,通过Zookeeper实现Master集群和Worker集群去中心化 9、支持对Master/Worker cpu load,memory,cpu在线查看 10、支持工作流运行历史树形/甘特图展示、支持任务状态统计、流程状态统计 11、支持补数 12、支持多租户 13、支持国际化 14、还有更多等待伙伴们探索
Apache DolphinScheduler是一个开源的分布式工作流任务调度系统。部署Apache DolphinScheduler 3.0.6-bin可以按照以下步骤进行: 1. 下载Apache DolphinScheduler 3.0.6-bin的压缩包,可以在官方网站或GitHub上找到。 2. 解压压缩包到目标服务器的指定目录。 3. 在解压后的目录中,修改配置文件,根据需求进行相应的配置。主要包括数据库、ZooKeeper和元数据源等配置。 4. 启动ZooKeeper集群,确保集群正常运行。DolphinScheduler需要ZooKeeper来进行任务调度和协调。 5. 初始化DolphinScheduler数据库,通过运行相关的初始化脚本来创建数据库表结构和初始化数据。 6. 配置和启动DolphinSchedulerMaster节点,通过修改master.properties文件来配置相关参数,并在启动脚本中指定该配置文件。 7. 配置和启动DolphinSchedulerWorker节点,通过修改worker.properties文件来配置相关参数,并在启动脚本中指定该配置文件。 8. 配置和启动DolphinScheduler的API服务,通过修改api.properties文件来配置相关参数,并在启动脚本中指定该配置文件。 9. 配置和启动DolphinScheduler的Alert客户端,通过修改alert.properties文件来配置相关参数,并在启动脚本中指定该配置文件。 10. 配置和启动DolphinScheduler的Logger客户端,通过修改logger.properties文件来配置相关参数,并在启动脚本中指定该配置文件。 11. 启动DolphinScheduler的调度器服务,通过修改调度器服务的配置文件来配置相关参数,并在启动脚本中指定该配置文件。 完成以上步骤后,Apache DolphinScheduler 3.0.6-bin就成功部署在目标服务器上了。可以通过访问相关的API和界面来管理和监控任务的调度和执行情况。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

enjoy编程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值