DM 源码阅读系列文章(三)数据同步处理单元介绍丨TiDB 工具

本文为 TiDB Data Migration 源码阅读系列文章的第三篇, 《DM 源码阅读系列文章(二)整体架构介绍》 介绍了 DM 的整体架构,DM 组件 DM-master 和 DM-worker 的入口代码,以及两者之间的数据交互模型。本篇文章详细地介绍 DM 数据同步处理单元(DM-worker 内部用来同步数据的逻辑单元),包括数据同步处理单元实现了什么功能,数据同步流程、运行逻辑,以及数据同步处理单元的 interface 设计。

数据同步处理单元

DM 数据同步处理单元

从上图可以了解到目前 DM 包含 relay log、dump、load、binlog replication(sync) 4 个数据同步处理单元,涵盖了以下数据同步处理的功能:

处理单元功能
relay log持久化 MySQL/MariaDB Binlog 到磁盘
dump从 MySQL/MariaDB dump 全量数据
load加载全量数据到 TiDB cluster
binlog replication(sync)复制 relay log 存储的 Binlog 到 TiDB cluster

数据同步流程

Task 数据同步流程初始化操作步骤:

  1. DM-master 接收到 task, 将 task 拆分成 subtask 后 分发给对应的各个 DM-worker 

  2. DM-worker 接收到 subtask 后 创建一个 subtask 对象 ,然后 初始化数据同步流程 

从 初始化数据同步流程 的代码中我们可以看到,根据 task 配置项 task-mode 的不同,DM-worker 会初始化不同的数据同步流程:

task-mode同步流程需要的数据同步处理单元
all全量同步 -> 增量数据同步relay log、dump、load、binlog replication(sync)
full全量同步dump、load
incremental增量同步relay log,binlog replication(sync)

运行逻辑

DM 数据同步处理单元 interface 定义在 dm/unit,relay log、dump、load、binlog replication(sync)都实现了该 interface( golang interface 介绍 )。

实际上 DM-worker 中的数据同步处理单元分为两类:

  • 全局共享单例。dm-worker 启动的时候只初始化一次这类数据同步处理单元,所有的 subtask 都可以使用这类数据同步处理单元的服务;relay log 属于这种类型。

  • subtask 独享。dm-worker 会为每个 subtask 初始化一系列的数据同步处理单元;dump、load、binlog replication(sync)属于这种类型。

两类数据同步处理单元的使用逻辑不同,这篇文档会着重讲一下 subtask 独享的数据同步处理单元的使用逻辑,不会囊括更多的 relay log 相关的内容,后面会有单独一篇文章详细介绍它。

relay log 相关使用代码在 dm/worker/relay.go、具体功能实现代码在 relay/relay.go,有兴趣的同学也可以先行阅读一下相关代码,relay log 的代码注释也是比较丰富,并且简单易懂。

subtask 独享数据同步处理单元使用逻辑相关代码在 dm/worker/subtask.go。subtask 对象包含的主要属性有:

  • units:初始化后要运行的数据同步处理单元。

  • currUnit:当前正在运行的数据同步处理单元。

  • prevUnit:上一个运行的数据同步处理单元。

  • stage:subtask 的运行阶段状态, 包含 NewRunningPausedStoppedFinished,具体定义的代码在 dm/proto/dmworker.proto

  • result:subtask 当前数据同步处理单元的运行结果,对应着 stage = Paused/Stopped/Finished的详细信息。

主要的逻辑有:

  • 初始化 subtask 对象实例的时候会 编排数据同步处理单元的运行先后顺序 。所有的数据同步处理单元都实现了  dm/unitinterface,所以接下来的运行中就不需要关心具体的数据同步处理单元的类型,可以按照统一的 interface 方法来运行数据同步处理单元,以及对其进行状态监控。

  • 初始化各个数据同步处理单元 。subtask 在运行前集中地初始化所有的数据同步处理单元,我们计划之后优化成在各个数据同步处理单元运行前再进行初始化,这样子减少资源的提前或者无效的占用。

  • 数据同步处理单元运行状态监控 。通过监控当前运行的数据同步处理单元的结果,将 subtask 的 stage 设置为 Paused/Stopped/Finished

  • 数据同步处理单元之间的运行交接处理逻辑 。部分数据同步处理单元在开始工作的时候需要满足一些前置条件,例如 binlog replication(sync)的运行需要等待 relay log 处理单元已经储存下来其开始同步需要的 binlog 文件,否则 subtask 将处于 stage=Paused的暂停等待状态。

小结

本篇文章主要介绍了数据同步处理单元实现了什么功能,数据同步流程、运行逻辑,以及数据同步处理单元的 interface 设计。后续会分三篇文章详细地介绍数据同步处理单元的实现,包括:

  • dump/load 全量同步实现
  • binlog replication 增量同步实现
  • relay log 实现

 

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

每天读点书学堂

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值