flink cdc 实时读取MySQL全量数据,并转换为流

flink cdc读取mysql数据并转换为流


flink cdc 实时读取MySQL全量数据,并转换为流,区分 insert|update和delete

代码

import org.apache.flink.streaming.api.scala._
import org.apache.flink.table.api._
import org.apache.flink.table.api.bridge.scala._

object Test{
  def main(args: Array[String]): Unit = {
    val bsEnv = StreamExecutionEnvironment.getExecutionEnvironment   //创建flinkStream环境
    val bsSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build()
    val bnv = StreamTableEnvironment.create(bsEnv, bsSettings)  //创建flinktable环境

    bnv.executeSql(
      """
        |CREATE TABLE mysql_binlog (
        | `id` STRING,
        | `comment` STRING
        |) WITH (
        | 'connector' = 'mysql-cdc',
        | 'hostname' = '127.0.0.1',
        | 'port' = '3306',
        | 'username' = 'root',
        | 'password' = 'root',
        | 'database-name' = 'test',
        | 'table-name' = 'test_table'
        |)
        |""".stripMargin)
    //    bnv.executeSql("select * from mysql_binlog").print() //原始table数据
    val table: Table = bnv.from("mysql_binlog")
    val tableStream: DataStream[(Boolean, (String, String))] = table.toRetractStream[(String, String)] //转换为流
    val value = tableStream  
      .filter(_._1 == true)		//得到insert和upate流
      .map(_._2)
      .map(data => {
        data._1 + "==>" + data._2
      })
    val delteStream = tableStream
      .filter(_._1 == false) //得到delete流
      .map(data => {
        data._2._1 + "==>" + data._2._2
      })
    value.print("insert|update")
    delteStream.print("delete")
    bsEnv.execute("flink  table")
  }
}

结果如下

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值