用 flink 插件chunjun实现全量+增量同步-达梦数据库到postgresql

用 flink 插件chunjun实现全量+增量同步,这里以达梦数据库同步到postgresql数据库为例。

纯钧下载地址:纯钧

纯钧是一款稳定、易用、高效、批流一体的数据集成框架,目前基于实时计算引擎Flink实现多种异构数据源之间的数据同步与计算,已在上千家公司部署且稳定运行。

达梦表ddl:

CREATE TABLE SYSDBA.SOURCE_TABLE (
	ID INT NOT NULL,
	NAME VARCHAR(100),
	CREATE_TIME INT,
	CONSTRAINT PK_SOURCE_TABLE_ID PRIMARY KEY (ID)
);
CREATE UNIQUE INDEX INDEX33555468 ON SYSDBA.SOURCE_TABLE (ID);

postgresql ddl:

CREATE TABLE public.SINK_TABLE (
	id int4 NOT NULL,
	"name" varchar(100) NULL,
	create_time int4 NULL,
	CONSTRAINT pk_SINK_TABLE_id2 PRIMARY KEY (id)
);

纯钧的sql:

create table SOURCE_TABLE(
    ID  INT, 
    NAME varchar(200),
    CREATE_TIME INT
    )
with (
      'connector' = 'dm-x',
      'url' = 'jdbc:dm://11.0.24.107:5236',
      'schema' = 'SYSDBA',
      'table-name' = 'SOURCE_TABLE',
      'username' = 'SYSDBA',
      'password' = 'SYSDBA001',
      'scan.increment.column' = 'CREATE_TIME',
      'scan.increment.column-type' = 'int',
      'scan.polling-interval' = '3000',
      'scan.fetch-size' = '200',
      'scan.query-timeout' = '10'
);
CREATE TABLE SINK_TABLE (
    id INT,
    name varchar(200),
    create_time INT,
    PRIMARY KEY (id) NOT ENFORCED)
    with (
    'password'='sys',
    'connector'='postgresql-x',
    'sink.buffer-flush.interval'='1000',
    'sink.all-replace'='true',
    'sink.buffer-flush.max-rows'='100',
    'table-name'='SINK_TABLE',
    'sink.parallelism'='1',
    'url'='jdbc:postgresql://11.0.101.10:39001/sys',
    'username'='sys'
    );
insert into SINK_TABLE select ID,NAME,CREATE_TIME from SOURCE_TABLE;

原理就是根据create_time这个字段的更新而增量更新修改、添加操作。

参数解释:

,'scan.increment.column' = 'create_time' -- 增量字段,根据这个字段判断是否更新

,'scan.increment.column-type' = 'int'  -- 增量字段类型

,'scan.polling-interval' = '3000' --间隔轮训时间。非必填(不填为离线任务,执行一次就技术),无默认

      'sink.all-replace' = 'true', -- 解释如下(其他rdb数据库类似):默认:false。定义了PRIMARY KEY才有效,否则是追加语句

                                  -- sink.all-replace = 'true' 生成如:INSERT INTO `result3`(`mid`, `mbb`, `sid`, `sbb`) VALUES (?, ?, ?, ?) ON DUPLICATE KEY UPDATE `mid`=VALUES(`mid`), `mbb`=VALUES(`mbb`), `sid`=VALUES(`sid`), `sbb`=VALUES(`sbb`) 。会将所有的数据都替换。

                                  -- sink.all-replace = 'false' 生成如:INSERT INTO `result3`(`mid`, `mbb`, `sid`, `sbb`) VALUES (?, ?, ?, ?) ON DUPLICATE KEY UPDATE `mid`=IFNULL(VALUES(`mid`),`mid`), `mbb`=IFNULL(VALUES(`mbb`),`mbb`), `sid`=IFNULL(VALUES(`sid`),`sid`), `sbb`=IFNULL(VALUES(`sbb`),`sbb`) 。如果新值为null,数据库中的旧值不为null,则不会覆盖。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Flink CDC(Change Data Capture)可以实现全量增量的数据同步。具体实现方式如下: 1. 全量同步:通过 Flink CDC 连接到 MySQL 数据库,并将 MySQL 数据库表中的所有数据作为初始状态,写入到 Flink 的数据源中。 2. 增量同步Flink CDC 可以监控 MySQL 数据库的 binlog,并将 binlog 中的增量数据实时同步Flink 的数据源中。 具体实现步骤如下: 1. 创建 MySQL 数据库的连接器: ``` CREATE TABLE mysql_table ( id INT, name STRING, age INT, PRIMARY KEY (id) NOT ENFORCED ) WITH ( 'connector' = 'mysql-cdc', 'hostname' = 'localhost', 'port' = '3306', 'username' = 'root', 'password' = '123456', 'database-name' = 'test', 'table-name' = 'test_table', 'debezium.snapshot.locking.mode' = 'none' ); ``` 2. 创建 Flink 数据源: ``` DataStreamSource<RowData> source = env.addSource( new MySqlBinlogSourceFunction( "mysql-cdc", "test", "test_table", new JdbcSplitOptions.JdbcSplitOptionBuilder().build(), new MySqlSourceOptions.MySqlSourceOptionBuilder().build(), new MySqlCDCOptions.MySqlCDCOptionBuilder().build() ) ).setParallelism(1); ``` 3. 定义数据处理逻辑: ``` Table table = tableEnv.fromDataStream(source, Schema.newBuilder() .column("id", DataTypes.INT()) .column("name", DataTypes.STRING()) .column("age", DataTypes.INT()) .build() ); Table result = table.groupBy($("id")) .select($("id"), $("name").concat("_").concat($("age")).as("name_age")); ``` 4. 输出结果: ``` DataStream<Tuple2<Boolean, Row>> stream = tableEnv.toRetractStream(result, Row.class); stream.print(); ``` 这样就可以实现全量增量的数据同步了。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值