Flink Table查询mysql数据转换成DataStream插入到Clickhouse

1. 背景

因为Flink Table并不支持插入数据到Clickhouse, 所以通过转换成DataStream的方式,将数据插入到Clickhouse

2. mysql表结构和数据

mysql>
mysql> use flink_test;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A

Database changed
mysql> show create table user;
+-------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Table | Create Table                                                                                                                                                                                         |
+-------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| user | CREATE TABLE `user` (
  `id` bigint NOT NULL,
  `name` varchar(128) DEFAULT NULL,
  `age` int DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci |
+-------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
1 row in set (0.00 sec)

mysql> 
mysql> select * from user;
+----+------+------+
| id | name | age  |
+----+------+------+
|  1 | yi   |    1 |
|  2 | er   |    2 |
|  3 | san  |    3 |
+----+------+------+
3 rows in set (0.00 sec)

mysql> 

3. Flink客户端代码

pom.xml需添加以下依赖

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-jdbc_2.11</artifactId>
            <version>1.14.0</version>
            <scope>provided</scope>
        </dependency>

        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>8.0.25</version>
            <scope>provided</scope>
        </dependency>

        <dependency>
            <groupId>ru.yandex.clickhouse</groupId>
            <artifactId>clickhouse-jdbc</artifactId>
            <version>0.2.4</version>
            <scope>provided</scope>
        </dependency>

执行TableSqlTest.scala程序

package TableApiTest

import org.apache.flink.connector.jdbc.{JdbcConnectionOptions, JdbcExecutionOptions, JdbcSink, JdbcStatementBuilder}
import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment
import org.apache.flink.table.api.bridge.scala.StreamTableEnvironment
import org.apache.flink.types.Row

import java.sql.PreparedStatement

object TableSqlTest {

  def main(args: Array[String]): Unit = {

    val senv = StreamExecutionEnvironment.getExecutionEnvironment
      .setRuntimeMode(RuntimeExecutionMode.STREAMING)
      // .setRuntimeMode(RuntimeExecutionMode.BATCH)
    val tEnv = StreamTableEnvironment.create(senv)

    // 可以只映射name和age两列
    val source_table =
      """
        |create temporary table user(
        |  id bigint,
        |  name string,
        |  age int,
        |  primary key (id) not enforced
        |) with (
        |   'connector' = 'jdbc',
        |   'url' = 'jdbc:mysql://192.168.xxx.xxx:3306/flink_test',
        |   'driver' = 'com.mysql.cj.jdbc.Driver',
        |   'table-name' = 'user',
        |   'username' = 'root',
        |   'password' = 'Root_123'
        |)
        |""".stripMargin
    tEnv.executeSql(source_table)
    val user = tEnv.from("user")

    val user_DS = tEnv.toDataStream(user)
    user_DS.addSink(JdbcSink.sink(
      "insert into user_all(id, name, age) values(?, ?, ?)",
      new JdbcStatementBuilder[Row] {
        override def accept(t: PreparedStatement, u: Row): Unit = {

          t.setLong(1, u.getFieldAs[Long](0))
          t.setString(2, u.getFieldAs[String](1))
          t.setInt(3, u.getFieldAs[Int](2))

        }
      },
      JdbcExecutionOptions.builder()
        .withBatchSize(1000)
        .withBatchIntervalMs(200)
        .withMaxRetries(5)
        .build(),
      new JdbcConnectionOptions.JdbcConnectionOptionsBuilder()
        .withUrl("jdbc:clickhouse://192.168.xxx.xxx:8123/default")
        .withDriverName("ru.yandex.clickhouse.ClickHouseDriver")
        .withUsername("default")
        .withPassword("default123")
        .build()
    ))

    senv.execute("TableSqlTest")

  }

}

4. Clickhouse表结构和结果数据

表结构如下:

bigdata005 :)
bigdata005 :) create table user_local on cluster cluster_ha(
:-] id UInt32,
:-] name String,
:-] age UInt8
:-] ) engine = ReplicatedMergeTree('/clickhouse/tables/user/{shard}', '{replica}')
:-] order by id;
bigdata005 :)
bigdata005 :) create table user_all on cluster sharding_ha as user_local engine Distributed(sharding_ha, default, user_local, rand());
bigdata005 :)

查看结果数据如下:

bigdata005 :)
bigdata005 :) select * from user_all;
┌─id─┬─name─┬─age─┐
│  1 │ yi   │   1 │
└────┴──────┴─────┘
┌─id─┬─name─┬─age─┐
│  2 │ er   │   2 │
└────┴──────┴─────┘
┌─id─┬─name─┬─age─┐
│  3 │ san  │   3 │
└────┴──────┴─────┘
bigdata005 :) 
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用网络文章开启本课程的开篇: 在大数据分析领域中,传统的大数据分析需要不同框架和技术组合才能达到最终的效果,在人力成本,技术能力和硬件成本上以及维护成本让大数据分析变得成为昂贵的事情。让很多中小型企业非常苦恼,不得不被迫租赁第三方大型公司的数据分析服务。  ClickHouse开源的出现让许多想做大数据并且想做大数据分析的很多公司和企业耳目一新。ClickHouse 正是以不依赖Hadoop 生态、安装和维护简单、查询速度快、可以支持SQL等特点在大数据分析领域越走越远。  本课程采用全新的大数据技术栈:Flink+ClickHouse,让你体验到全新技术栈的强大,感受时代变化的气息,通过学习完本课程可以节省你摸索的时间,节省企业成本,提高企业开发效率。本课程不仅告诉你如何做项目,还会告诉你如何验证系统如何支撑亿级并发,如何部署项目等等。希望本课程对一些企业开发人员和对新技术栈有兴趣的伙伴有所帮助,如对我录制的教程内容有建议请及时交流。 课程概述:在这个数据爆发的时代,像大型电商的数据量达到百亿级别,我们往往无法对海量的明细数据做进一步层次的预聚合,大量的业务数据都是好几亿数据关联,并且我们需要聚合结果能在秒级返回。  那么我们该如何实现这一需求呢?基于Flink+ClickHouse构建电商亿级实时数据分析平台课程,将带领大家一步一步从无到有实现一个高性能的实时数据分析平台,该系统以热门的互联网电商实际业务应用场景为案例讲解,对电商数据的常见实战指标以及难点实战指标进行了详尽讲解,具体指标包括:概况统计、全站流量分析、渠道分析、广告分析、订单分析、运营分析(团购、秒杀、指定活动)等,该系统指标分为分钟级和小时级多时间方位分析,能承载海量数据的实时分析,数据分析涵盖全端(PC、移动、小程序)应用。 本课程凝聚讲师多年一线大数据企业实际项目经验,大数据企业在职架构师亲自授课,全程实操代码,带你体验真实的大数据开发过程,代码现场调试。通过本课程的学习再加上老师的答疑,你完全可以将本案例直接应用于企业。 本套课程可以满足世面上绝大多数大数据企业级的海量数据实时分析需求,全部代码在老师的指导下可以直接部署企业,支撑千亿级并发数据分析。项目代码也是具有极高的商业价值的,大家可以根据自己的业务进行修改,便可以使用。  本课程包含的技术: 开发工具为:IDEA、WebStorm Flink1.9.0 ClickHouseHadoop2.6.0 Hbase1.0.0 Kafka2.1.0 Hive1.0.0 Jmeter(验证如何支撑亿级并发)Docker (虚拟化部署)HDFS、MapReduce Zookeeper SpringBoot2.0.2.RELEASE SpringCloud Finchley.RELEASE Binlog、Canal MySQL Vue.js、Nodejs Highcharts Linux Shell编程  课程亮点: 1.与企业对接、真实工业界产品 2.ClickHouse高性能列式存储数据库 3.大数据热门技术Flink新版本 4.Flink join 实战 5.Flink 自定义输出路径实战 6.全链路性能压力测试 7.虚拟化部署 8.集成指标明细查询 9.主流微服务后端系统 10.分钟级别与小时级别多时间方位分析 11.数据库实时同步解决方案 12.涵盖主流前端技术VUE+jQuery+Ajax+NodeJS 13.集成SpringCloud实现统一整合方案 14.互联网大数据企业热门技术栈 15.支持海量数据的实时分析 16.支持全端实时数据分析 17.全程代码实操,提供全部代码和资料 18.提供答疑和提供企业技术方案咨询 企业一线架构师讲授,代码在老师的指导下企业可以复用,提供企业解决方案。  版权归作者所有,盗版将进行法律维权。 
以下是一个简单的 Flink 读取 MySQL 数据并将其插入MySQL 的示例代码。 首先,你需要在 pom.xml 文件中添加 MySQLFlink Connector for MySQL 的依赖: ```xml <dependencies> <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-java</artifactId> <version>1.11.2</version> </dependency> <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-streaming-java_2.12</artifactId> <version>1.11.2</version> </dependency> <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-connector-jdbc_2.12</artifactId> <version>1.11.2</version> </dependency> <dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> <version>8.0.23</version> </dependency> </dependencies> ``` 然后,可以使用以下代码读取 MySQL 数据并将其插入到另一个 MySQL 数据库中: ```java import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.api.common.functions.RuntimeContext; import org.apache.flink.api.common.serialization.SimpleStringSchema; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer; import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer; import org.apache.flink.streaming.connectors.kafka.KafkaSerializationSchema; import org.apache.flink.streaming.connectors.kafka.KafkaSink; import org.apache.flink.streaming.connectors.kafka.KafkaTopicPartition; import org.apache.flink.streaming.connectors.kafka.partitioner.FlinkKafkaPartitioner; import org.apache.flink.streaming.util.serialization.JSONKeyValueDeserializationSchema; import org.apache.flink.streaming.util.serialization.KeyedSerializationSchema; import org.apache.flink.streaming.util.serialization.KeyedSerializationSchemaWrapper; import org.apache.flink.types.Row; import org.apache.flink.util.Preconditions; import java.nio.charset.StandardCharsets; import java.util.Optional; import java.util.Properties; public class FlinkMySQLExample { public static void main(String[] args) throws Exception { // set up the streaming execution environment final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // configure properties for MySQL source Properties sourceProps = new Properties(); sourceProps.setProperty("driverClassName", "com.mysql.cj.jdbc.Driver"); sourceProps.setProperty("url", "jdbc:mysql://localhost:3306/mydatabase"); sourceProps.setProperty("username", "myuser"); sourceProps.setProperty("password", "mypassword"); sourceProps.setProperty("query", "SELECT * FROM mytable"); // create a MySQL source DataStream<Row> mysqlSource = env.createInput(new JDBCInputFormat() .setDBUrl(sourceProps.getProperty("url")) .setDrivername(sourceProps.getProperty("driverClassName")) .setUsername(sourceProps.getProperty("username")) .setPassword(sourceProps.getProperty("password")) .setQuery(sourceProps.getProperty("query")) .setRowTypeInfo(new RowTypeInfo(...))); // configure properties for MySQL sink Properties sinkProps = new Properties(); sinkProps.setProperty("driverClassName", "com.mysql.cj.jdbc.Driver"); sinkProps.setProperty("url", "jdbc:mysql://localhost:3306/mydatabase"); sinkProps.setProperty("username", "myuser"); sinkProps.setProperty("password", "mypassword"); sinkProps.setProperty("table", "mytable"); // create a MySQL sink mysqlSource.addSink(new JDBCOutputFormat() .setDBUrl(sinkProps.getProperty("url")) .setDrivername(sinkProps.getProperty("driverClassName")) .setUsername(sinkProps.getProperty("username")) .setPassword(sinkProps.getProperty("password")) .setQuery(String.format("INSERT INTO %s VALUES (?, ?, ...)", sinkProps.getProperty("table"))) .setBatchInterval(1000) .setBatchSize(1000) .setSqlTypes(new int[]{Types.INTEGER, Types.VARCHAR, ...})); // execute the program env.execute("Flink MySQL Example"); } } ``` 注意,需要将代码中的 `mydatabase`、`mytable`、`myuser` 和 `mypassword` 替换为你自己的数据库名称、表名称和登录凭据。 此外,还需要根据你的表结构修改 `setQuery` 和 `setSqlTypes` 方法中的参数。在 `setSqlTypes` 中,可以使用 `java.sql.Types` 中的常量指定每个列的 SQL 类型。 最后,运行程序并检查新的 MySQL 数据库是否包含来自源数据库的数据

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值