Flink SQL与Kafka整合的哪些事儿

本文介绍了如何使用FlinkTableAPI从Kafka消费JSON格式的点击日志,并转化为CSV格式输出到另一个Kafka主题。通过添加相应依赖,创建源和目标Kafka表,然后进行数据选择和插入操作,实现了端到端的数据流程。此外,还讨论了KafkaSQLConnector的高级特性,包括key和value格式、topic和partition发现、读取位置、sink分区以及一致性保证。
摘要由CSDN通过智能技术生成

1 Flink Table与Kafka集成案例

1.1 需求

需求:Flink Table从kafka消费点击日志(JSON),转化为CSV格式之后输出到Kafka。

1.2 添加Maven依赖

FlinkTable集成Kafka需引入如下依赖:

<dependency>

      <groupId>org.apache.flink</groupId>

      <artifactId>flink-connector-kafka_${scala.binary.version}</artifactId>

      <version>${flink.version}</version>

</dependency>

1.3 代码实现

Flink Table API实现Kafka生产者与消费者的完整代码如下所示。

package com.bigdata.chap02;

import org.apache.flink.table.api.*;

import static org.apache.flink.table.api.Expressions.$;

public class FlinkTableAPIKafka2Kafka {

    public static final String input_topic = "clicklog_input";

    public static final String out_topic = "clicklog_output";

    public static void main(String[] args) {

        //1、创建TableEnvironment

        EnvironmentSettings settings = EnvironmentSettings

                .newInstance()

                .build();

        TableEnvironment tEnv = TableEnvironment.create(settings);

        //2、创建kafka source table

        final Schema schema = Schema.newBuilder()

                .column("user", DataTypes.STRING())

                .column("url", DataTypes.STRING())

                .column("cTime", DataTypes.STRING())

                .build();

        tEnv.createTemporaryTable("sourceTable", TableDescriptor.forConnector("kafka")

                .schema(schema)

                .format("json")

                .option("topic",input_topic)

                .option("properties.bootstrap.servers","hadoop1:9092")

                .option("properties.group.id","clicklog")//每次都从最早的offsets开始

                .option("scan.startup.mode","latest-offset")

                .build());

        //3、创建 kafka sink table

        tEnv.createTemporaryTable("sinkTable", TableDescriptor.forConnector("kafka")

                .schema(schema)

                .format("csv")

                .option("topic",out_topic)

                .option("properties.bootstrap.servers","hadoop1:9092")

                .build());

        //5、输出(包括执行,不需要单独在调用tEnv.execute("job"))

        tEnv.from("sourceTable")

                .select($("user"), $("url"),$("cTime"))

                .executeInsert("sinkTable");

    }

}

1.4 打开Kafka数据生产与消费

#查看topic列表

bin/kafka-topics.sh --zookeeper localhost:2181 --list

#创建输入与输出topic

bin/kafka-topics.sh --bootstrap-server localhost:9092 --create --topic clicklog_input --replication-factor 3 --partitions 3

bin/kafka-topics.sh --bootstrap-server localhost:9092 --create --topic clicklog_output --replication-factor 3 --partitions 3

#Kafka 输出topic打开消费者

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic clicklog_output

#打开Kafka输入Topic生产者

bin/kafka-console-producer.sh --bootstrap-server localhost:9092 --topic clicklog_input

{"user":"Mary","url":"./home","cTime":"2022-02-02 12:00:00"}

如果clicklog_input topic的生产者输入数据之后,在clicklog_output topic端能消费到数据,则说明Flink Table打通了Kafka端到端的数据流程。

2 Kafka SQL Connector高级特性

2.1 key和value格式

Kafka消息的key和value均可指定format。

#仅指定value format

tEnv.createTemporaryTable("sourceTable", TableDescriptor.forConnector("kafka")

                .schema(schema)

                .format("json")

                .option("topic",input_topic)

                .option("properties.bootstrap.servers","hadoop1:9092")

                .option("properties.group.id","clicklog")//每次都从最早的offsets开始

                .option("scan.startup.mode","latest-offset")

                .build());

#指定key和value format

tEnv.createTemporaryTable("sourceTable", TableDescriptor.forConnector("kafka")

                .schema(schema)

                .option("key.format","json")

   .option("value.format","json")

                .option("topic",input_topic)

                .option("properties.bootstrap.servers","hadoop1:9092")

                .option("properties.group.id","clicklog")//每次都从最早的offsets开始

                .option("scan.startup.mode","latest-offset")

                .build());

注意:format("json")和option("value.format","json")二选一,二者等价

2.2 Topic和Partition发现

可以通过topic或者topic-pattern来配置主题。

注意:要允许在作业开始运行后发现动态创建的topic,请为 scan.topic-partition-discovery.interval 设置一个非负值。

2.3 读取位置

作为source,是可以通过scan.startup.mode选项指定从哪个位置开始消费,可选的值如下。

2.4 Sink分区

当kafka作为sink时,可以通过sink.partitioner指定partitioner。支持的选项值如下。

2.5 致性保证

默认情况下,如果启用checkpoint,Kafka sink使用at-least-once一致性语意。在启用checkpoint的前题下,可通过sink.delivery-guarantee来调整一致性语意:

一旦启用了事物来保证exactly-once语意,一定要注意下游消费者要配置isolation.level为read_committed(默认是read_uncommitted)。

Apache Flink 提供了与 Kafka 进行无缝集成的功能。使用 Flink SQL 连接 Kafka 可以轻松地将流处理和数据分析应用程序与 Kafka 集成。 以下是在 Flink SQL 中连接 Kafka 的步骤: 1. 首先,需要在 Flink 中导入 Kafka 的依赖项。可以在 pom.xml 文件中添加以下依赖项: ``` <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-connector-kafka_{scala.binary.version}</artifactId> <version>${flink.version}</version> </dependency> ``` 2. 在 Flink SQL 中,需要使用 CREATE TABLE 语句来创建与 Kafka 主题的连接。以下是一个示例 CREATE TABLE 语句: ``` CREATE TABLE myKafkaTable ( kafka_key STRING, kafka_value STRING, kafka_timestamp TIMESTAMP(3), kafka_topic STRING, kafka_partition INT, kafka_offset BIGINT ) WITH ( 'connector' = 'kafka', 'topic' = 'myKafkaTopic', 'properties.bootstrap.servers' = 'localhost:9092', 'properties.group.id' = 'myKafkaConsumerGroup', 'format' = 'json', 'scan.startup.mode' = 'earliest-offset' ) ``` 3. 在上面的示例中,`myKafkaTable` 是要创建的表的名称,`kafka_key`、`kafka_value`、`kafka_timestamp`、`kafka_topic`、`kafka_partition` 和 `kafka_offset` 是表中的列名。`'connector' = 'kafka'` 表示连接到 Kafka,`'topic' = 'myKafkaTopic'` 表示要连接的 Kafka 主题的名称,`'properties.bootstrap.servers' = 'localhost:9092'` 表示 Kafka 服务器的地址,`'properties.group.id' = 'myKafkaConsumerGroup'` 表示使用的消费者组的名称,`'format' = 'json'` 表示消息格式为 JSON,`'scan.startup.mode' = 'earliest-offset'` 表示从最早的可用偏移量开始读取消息。 4. 通过使用 Flink SQL 中的 SELECT 语句,可以从 Kafka 主题中读取和查询数据。以下是一个示例 SELECT 语句: ``` SELECT kafka_key, COUNT(*) as count FROM myKafkaTable GROUP BY kafka_key ``` 5. 最后,可以使用 Flink 中的 DataStream API 或 Table API 来处理从 Kafka 中读取的数据。 这就是在 Flink SQL 中连接 Kafka 的基本步骤。通过使用 Flink SQLKafka,可以轻松地构建流处理和数据分析应用程序。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据研习社

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值