【Flink实战系列】Flink 如何动态写入 kafka 的多个 topic

本文介绍了如何使用Flink根据数据中的字段动态将数据写入多个Kafka topic。通过KeyedSerializationSchema(已废弃)和KafkaSerializationSchema接口的实现,展示了将数据序列化并指定不同topic的方法。示例代码成功将数据写入了两个预设的topic。
摘要由CSDN通过智能技术生成

昨天在群里一个同学问了这样一个问题,Flink怎么根据数据里面的某个字段动态把数据写入多个kafka的topic.

其实这个问题非常简单,你肯定会想到说写多个sink就可以了,Flink确实也是支持多个sink的,但是他的需求是可能会写入上千个topic(我们这里不去讨论这个需求是否合理或者是否有这样的场景),我们肯定不可能会复制上千遍的代码.

那其实Flink提供了高阶的序列化模式,与FlinkKafkaConsumer类似,FlinkKafkaProducer提供了一个叫KeyedSerializationSchema的高级序列化模式的接口,这个模式允许分开地序列化key和value。同时允许重写目标topic,因此一个FlinkKafkaProducer可以发送数据到多个topic。

下面来看下KeyedSerializationSchema接口的源码

/** @deprecated */
@Deprecated
@PublicEvolving
public interface KeyedSerializationSchema<T> extends Serializable {
    byte[] serializeKey(T var1);


    byte[] serializeValue(T var1);


    String getTargetTopic(T var1);
}

可以看到这个接口里面有3个方法,可以分别对key,val

可以通过 Flink SQL 中的 `PARTITION BY` 子句来指定分区字段,然后使用 FlinkKafka Producer 将数据发送到 Kafka 中。下面是一个示例代码: ```java // 创建 Flink Table Environment StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime); StreamTableEnvironment tEnv = StreamTableEnvironment.create(env); // 创建 Kafka Producer 配置 Properties kafkaProps = new Properties(); kafkaProps.setProperty("bootstrap.servers", "localhost:9092"); // 定义输入数据源 String sourceDDL = "CREATE TABLE source_table (id INT, name STRING, event_time TIMESTAMP(3), WATERMARK FOR event_time AS event_time - INTERVAL '5' SECOND) WITH (...)"; tEnv.executeSql(sourceDDL); // 定义输出数据源 String sinkDDL = "CREATE TABLE sink_table (id INT, name STRING) WITH ('connector' = 'kafka', 'topic' = 'output-topic', 'properties' = '" + kafkaProps.toString() + "', 'format' = 'json')"; tEnv.executeSql(sinkDDL); // 执行 SQL 查询并写入 Kafka String sql = "INSERT INTO sink_table SELECT id, name FROM source_table PARTITION BY id"; tEnv.executeSql(sql); ``` 在上面的代码中,我们首先创建了一个 Flink Table Environment,并且定义了 Kafka Producer 的配置。然后,我们使用 Flink SQL 创建了输入和输出表。输入表包括一个 `event_time` 字段,我们使用它来定义 watermark。输出表是一个 Kafka topic,我们使用 `PARTITION BY` 子句按照 `id` 字段进行分区。最后,我们执行了 SQL 查询并将结果写入 Kafka topic
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

JasonLee实时计算

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值