SeaTunnel-JDBC Connector 多表离线同步

一、环境信息

数据库/工具版本
Apache Doris1.2.6
MySQL8.0.34
Apache SeaTunnel2.3.3

二、数据表

2.1 数据源 Doris 数据表

  • 源表1
CREATE TABLE IF NOT EXISTS ads.ads_device_switch_performance (
  `event_time` DATETIMEV2 COMMENT '业务时间',
  `device_id` VARCHAR(32) COMMENT '设备id',
  `device_type` VARCHAR(32) COMMENT '设备类型',
  `device_name` VARCHAR(128) COMMENT '设备名称',
  `cpu_usage` INT COMMENT 'CPU使用率百分比'
)
  UNIQUE KEY(`event_time`, `device_id`)
  PARTITION BY RANGE(`event_time`) ()
  DISTRIBUTED BY HASH(`event_time`) BUCKETS AUTO
  PROPERTIES (
    "replication_allocation" = "tag.location.default: 3",
    "dynamic_partition.enable" = "true",
    "dynamic_partition.time_unit" = "DAY",
    "dynamic_partition.time_zone" = "Asia/Shanghai",
    "dynamic_partition.end" = "3",
    "dynamic_partition.prefix" = "p",
    "dynamic_partition.replication_allocation" = "tag.location.default: 3",
    "dynamic_partition.create_history_partition" = "true",
    "dynamic_partition.history_partition_num" = "30",
    "enable_unique_key_merge_on_write" = "true",
    "disable_auto_compaction" = "false"
  );
  • 源表2
CREATE TABLE IF NOT EXISTS ads.ads_device_router_performance (
  `event_time` DATETIMEV2 COMMENT '业务时间',
  `device_id` VARCHAR(32) COMMENT '设备id',
  `device_type` VARCHAR(32) COMMENT '设备类型',
  `device_name` VARCHAR(128) COMMENT '设备名称',
  `cpu_usage` INT COMMENT 'CPU使用率百分比'
)
  UNIQUE KEY(`event_time`, `device_id`)
  PARTITION BY RANGE(`event_time`) ()
  DISTRIBUTED BY HASH(`event_time`) BUCKETS AUTO
  PROPERTIES (
    "replication_allocation" = "tag.location.default: 3",
    "dynamic_partition.enable" = "true",
    "dynamic_partition.time_unit" = "DAY",
    "dynamic_partition.time_zone" = "Asia/Shanghai",
    "dynamic_partition.end" = "3",
    "dynamic_partition.prefix" = "p",
    "dynamic_partition.replication_allocation" = "tag.location.default: 3",
    "dynamic_partition.create_history_partition" = "true",
    "dynamic_partition.history_partition_num" = "30",
    "enable_unique_key_merge_on_write" = "true",
    "disable_auto_compaction" = "false"
  );

2.2 数据汇 MySQL 数据表

  • 目标表
CREATE TABLE `device_performance` (
  `id` BIGINT NOT NULL AUTO_INCREMENT COMMENT '表主键',
  `create_time` DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
  `update_time` DATETIME NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '更新时间',
  `timestamp` DATETIME NOT NULL COMMENT '业务时间',
  `device_id` VARCHAR(32) COMMENT '设备id',
  `device_type` VARCHAR(32) COMMENT '设备类型',
  `device_name` VARCHAR(128) NOT NULL COMMENT '设备名称',
  `cpu_usage` FLOAT NOT NULL COMMENT 'CPU利用率单位是%',
  PRIMARY KEY (`id`),
) ENGINE=InnoDB AUTO_INCREMENT=614789 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT='设备状态';

CREATE UNIQUE INDEX unique_idx ON device_performance (`timestamp`,`device_id`);

三、需求

离线同步 Doris 多张数据表 到 MySQL 数据库。
这里 同步 两张 Doris数据表 到 MySQL数据库同一张表,多对多,多对一 实际 做法也是完全相同的,在 SeaTunnel 里 只需要分别在 sourcetransformsink中创建相应数量的 配置代码块即可。

四、SeaTunnel 同步方案

4.1 同步配置

  • device_performance.config
env {
    job.mode="BATCH"
    job.name="device_performance"
}

source {
    Jdbc {
        url="jdbc:mysql://192.168.91.120:9030/ads?tinyInt1isBit=false&enabledTLSProtocols=TLSv1.2&rewriteBatchedStatements=true"
        driver="com.mysql.cj.jdbc.Driver"
        user=doris
        password="Doris123456"
        result_table_name="switch_src"
        query="SELECT `event_time`, `device_id`, `device_type`, `device_name`, `cpu_usage` FROM ads.ads_device_switch_performance WHERE event_time = REPLACE('"${event_time}"', 'T', ' ');"
    }
    Jdbc {
        url="jdbc:mysql://192.168.91.120:9030/ads?tinyInt1isBit=false&enabledTLSProtocols=TLSv1.2&rewriteBatchedStatements=true"
        driver="com.mysql.cj.jdbc.Driver"
        user=doris
        password="Doris123456"
        result_table_name="router_src"
        query="SELECT `event_time`, `device_id`, `device_type`, `device_name`, `cpu_usage` FROM ads.ads_device_router_performance WHERE event_time = REPLACE('"${event_time}"', 'T', ' ');"
    }
}

transform {
  Sql {
    source_table_name = "switch_src"
    result_table_name = "switch_dst"
    query = "SELECT NOW() AS create_time, NOW() AS update_time, event_time AS timestamp, device_id, device_type, device_name, cpu_usage FROM switch_src;"
  }
  Sql {
    source_table_name = "router_src"
    result_table_name = "router_dst"
    query = "SELECT NOW() AS create_time, NOW() AS update_time, event_time AS timestamp, device_id, device_type, device_name, cpu_usage FROM router_src;"
  }
}

sink {
    Jdbc {
        url="jdbc:mysql://1192.168.91.100:3306/device?charset=utf8"
        driver="com.mysql.cj.jdbc.Driver"
        user=mysql
        password="mysql123456"
        source_table_name = "switch_dst"
        query="INSERT INTO device_performance (create_time, update_time, timestamp, device_id, device_type, devices_name, cpu_usage ) VALUES(?, ?, ?, ?, ?, ?) ON DUPLICATE KEY UPDATE update_time=VALUES(update_time), device_type=VALUES(device_type), devices_name=VALUES(devices_name), cpu_usage=VALUES(cpu_usage);"
      }
    Jdbc {
        url="jdbc:mysql://1192.168.91.100:3306/device?charset=utf8"
        driver="com.mysql.cj.jdbc.Driver"
        user=mysql
        password="mysql123456"
        source_table_name = "router_dst"
        query="INSERT INTO device_performance (create_time, update_time, timestamp, device_id, device_type, devices_name, cpu_usage ) VALUES(?, ?, ?, ?, ?, ?) ON DUPLICATE KEY UPDATE update_time=VALUES(update_time), device_type=VALUES(device_type), devices_name=VALUES(devices_name), cpu_usage=VALUES(cpu_usage);"
       }
}

4.2 执行脚本

  • 使用 本地模式 -e local
  • seatunnel 2.3.3 通过 -i 传递参数, 当传入 DorisDATETIME 类型参数 2023-10-10 10:40:00,  seatunnel 识别参数值 为 2023-10-10,推测 seatunnel 默认将 空格 作为参数分隔符,所以在这里使用 2023-10-10T10:40:00 规避这个问题
#!/bin/bash
${SEATUNNEL_HOME}/bin/seatunnel.sh \
--config device_performance.config \
-e local \
-i event_time='2023-10-10T10:40:00'
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Flink-connector-jdbc是Apache Flink的一个官方连接器,用于将Flink与关系型数据库(如MySQL、PostgreSQL等)进行集成。 要下载Flink-connector-jdbc,可以按照以下步骤进行操作: 1. 打开Apache Flink的官方网站(https://flink.apache.org/)。 2. 导航到"Downloads"(下载)页面,这里提供了Flink的各种版本。 3. 选择所需的Flink版本并下载对应的二进制文件。通常,您可以选择最新的稳定版本。 4. 在下载的Flink二进制文件中,找到一个名为"flink-connector-jdbc"的目录。该目录中包含了Flink与关系型数据库进行连接所需的所有库和文件。 5. 将"flink-connector-jdbc"目录复制到您的工作环境中,以便您可以在Flink应用程序中使用它。 6. 现在,您可以将"flink-connector-jdbc"添加到您的Flink应用程序的依赖中,并开始使用它。 如果您需要使用Maven进行构建,可以在您的Maven配置文件(pom.xml)中添加以下依赖: ``` <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-connector-jdbc_${scala.binary.version}</artifactId> <version>${flink.version}</version> </dependency> ``` 请注意替换`${scala.binary.version}`和`${flink.version}`为您要使用的具体版本。 下载Flink-connector-jdbc后,您就可以使用它来将Flink与关系型数据库进行集成,实现从数据库中读取数据或将数据写入到数据库中。您可以使用Flink的JDBC连接器来定义数据库表的结构,并使用SQL或DataStream API操作和处理数据库中的数据。通过Flink-connector-jdbc,您可以轻松地利用Flink强大的数据处理能力与关系型数据库进行交互。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值