Flinkx/Datax/Flink-CDC 优劣势对比

一、FlinkX简介
FlinkX是一个基于Flink的批流统一的数据同步工具,既可以采集静态的数据,比如MySQL,HDFS等,也可以采集实时变化的数据,比如MySQL binlog,Kafka等。FlinkX目前包含下面这些特性:
● 大部分插件支持并发读写数据,可以大幅度提高读写速度;
● 部分插件支持失败恢复的功能,可以从失败的位置恢复任务,节约运行时间;失败恢复
● 关系数据库的Reader插件支持间隔轮询功能,可以持续不断的采集变化的数据;间隔轮询
● 部分数据库支持开启Kerberos安全认证;Kerberos
● 可以限制reader的读取速度,降低对业务数据库的影响;
● 可以记录writer插件写数据时产生的脏数据;
● 可以限制脏数据的最大数量;
● 支持多种运行模式;
FlinkX目前支持下面这些数据库:
在这里插入图片描述

github:https://github.com/oceanos/flinkx
二、DataX简介
DataX 是一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定高效的数据同步功能。
在这里插入图片描述

● 设计理念
为了解决异构数据源同步问题,DataX将复杂的网状的同步链路变成了星型数据链路,DataX作为中间传输载体负责连接各种数据源。当需要接入一个新的数据源的时候,只需要将此数据源对接到DataX,便能跟已有的数据源做到无缝数据同步。
● 当前使用现状
DataX在阿里巴巴集团内被广泛使用,承担了所有大数据的离线同步业务,并已持续稳定运行了6年之久。目前每天完成同步8w多道作业,每日传输数据量超过300TB。
DataX本身作为离线数据同步框架,将数据源读取和写入抽象成为Reader/Writer插件,纳入到整个同步框架中。
在这里插入图片描述

Reader:Reader为数据采集模块,负责采集数据源的数据,将数据发送给Framework。
Writer: Writer为数据写入模块,负责不断向Framework取数据,并将数据写入到目的端。
Framework:Framework用于连接reader和writer,作为两者的数据传输通道,并处理缓冲,流控,并发,数据转换等核心技术问题。
github:https://github.com/alibaba/DataX
三、FlinkX与DataX对比
在Flink的生态圈里面与DataX对标的就是FlinkX,有可能就是同一批开发人员。
相同点:
● 支持多种数据库的数据同步
● 支持高并发数据读写
● 支持大批量数据批量读写
不同点:
● DataX任务是单机多线程的,资源占用多。FlinX提交Flink 任务至Flink 集群,可以分布式运行,且可以使用Yarn进行任务调度,与Hadoop生态无缝结合。
● DataX只支持离线批处理。FlinkX支持批处理和部分数据库的流式处理。
总结:
FlinkX与DataX 都数据大数据数据同步的第三方插件,但是FlinX很多功能都是对标DataX的,并在其原有基础上进行了改进。DataX是一个单机同步工具,核心底层通道的分布式支持不友好,而FlinkX任务是基于Flink集群的,可以无缝结合Hadoop生态。所以在分布式、高效性和易于拓展方面 FlinX是优于DataXD的。

四、Flink-CDC 简介
Flink CDC 连接器是 Apache Flink 的一组源连接器,使用变更数据捕获 (CDC) 从不同数据库中获取变更。
● 支持读取数据库快照并继续读取binlog,即使发生故障也只处理一次。
● DataStream API 的 CDC 连接器,用户可以在单个作业中使用对多个数据库和表的更改,而无需部署 Debezium 和 Kafka。
● Table/SQL API 的 CDC 连接器,用户可以使用 SQL DDL 创建 CDC 源来监视单个表上的更改。
在这里插入图片描述

github:https://github.com/oceanos/flinkx/blob/1.8_release/docs/rdbwriter.md

五、FlinkX与Flink-CDC对比
相同点:
● 都是基于Flink,提交Flink 任务
● 对MySQL/Kafka/Postgres 都支持流式变更(CDC),数据实时变更、实时抓取
● 针对流式处理都是基于日志的CDC

不同点:
● FlinkX属于第三方插件,而Flink-CDC属于Flink的一组连接器。相对而言,Flink-CDC更轻,且使用更方便。
● FlinkX支持的数据源更多,Flink-CDC目前只支持MySQL/Kafka/Postgres的实时CDC
● FlinkX支持批处理和流处理、Flink-CDC只支持流处理。

实时处理:
如果需要对数据同步采用实时处理的话,由于云大学数据是存储在Mysql中,所以无论是FlinkX和Flink-CDC都是支持的。它们的底层都是基于Debezium 的binlog来进行数据同步的。但是由于FlinkX属于第三方插件,而Flink-CDC属于Flink的一组连接器。相对而言,Flink-CDC更轻,且使用更方便。
缺点:
● 需要修改binlog模式,日志存储空间需要增大。

离线批处理:
如果需要采用离线批处理方式,建议采用FlinkX。因为其高效、稳定,且支持多种数据源。
缺点:
● 采用离线批处理的话,其本质是基于查询的CDC。与基于日志的CDC还是有所区别的,具体对比如下:
在这里插入图片描述

总结:
● 实时数据同步带来的风险是需要修改binlog模式,导致日志存储空间增大。且支持的数据库比较少。
● 离线批量同步的本质是基于查询的CDC,需要部署第三方插件,同时其带来的风险是无法实时捕获所有数据变化、相对基于日志的CDC延迟性更高、高频率和大批量的数据同步会增加数据库的负担,因为它在同步的时候需要一直去连接数据库进行数据查询、无法捕获删除事件和旧记录状态。

这段代码是一个Shell脚本,包含了一些变量的定义和注释。 具体解释如下: 1. `##! @TODO: get admin bound from openmap` - 这是一个注释,表示要从OpenMap获取管理员边界信息。 3. `##! @AUTHOR: kanchangcheng@baidu.com` - 这是一个注释,表示作者是kanchangcheng@baidu.com。 5. `##! @DATE: 20180309 14:31:29` - 这是一个注释,表示脚本的最后修改日期和时间。 7. `##! @VERSION: 1.0` - 这是一个注释,表示脚本的版本号。 6-18. `php=~/odp/php/bin/php`, `hadoop_afs=~/tools/hadoop-afs/hadoop-client/hadoop/bin/hadoop`, `hadoop=/home/map/tools/hadoop-afs/hadoop-client/hadoop/bin/hadoop`, `hdfs_block_path="afs://kunpeng.afs.baidu.com:9902/user/lbs-huiyan/warehouse/huiyan.db/map_huiyan_block_info_mid/"`, `hdfs_admin_path="afs://kunpeng.afs.baidu.com:9902/user/lbs-huiyan/warehouse/huiyan.db/map_huiyan_admin_info/"`, `queryengine=/home/map/tools/queryengine-client-2.1.7-online/queryengine/bin/queryengine`, `datax=/home/map/tools/datax_huiyan_v2/bin/datax.py`, `python=~/tools/py2714/phq` - 这些行定义了一些变量,并给它们赋予了特定的值。 19. `if [ "$1" ];then` - 这一行是一个条件语句,判断脚本是否接收到了一个参数。 综上所述,这段代码的作用是定义了一些变量,并给它们赋予了特定的值。其中还包含了一些注释,用于说明脚本的功能、作者、版本和最后修改日期。最后还有一个条件语句,用于判断脚本是否接收到了一个参数。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值