Flink 写入数据到Kafka
前言
通过Flink官网可以看到Flink里面就默认支持了不少sink,比如也支持Kafka sink connector(FlinkKafkaProducer),那么这篇文章我们就来看看如何将数据写入到Kafka。
准备
Flink里面支持Kafka 0.8、0.9、0.10、0.11.

这里我们需要安装下Kafka,请对应添加对应的Flink Kafka connector依赖的版本,这里我们使用的是0.11 版本:
org.apache.flink
flink-connector-kafka-0.11_2.11
${flink.version}
目前我们先看下本地Kafka是否有这个student-write topic呢?需要执行下这个命令:
➜ kafka_2.11-0.10.2.0 ./bin/kafka-topics.sh --list --zookeeper localhost:2181
__consumer_offsets
lambda-pipeline-topic
metrics
my-topic
my-topic-thread1
my-topic-thread2
qb_ad
qbad
qbad_test
student
topic1
wikipedia
wikipedia_stream
如果等下我们的程序运行起来后,再次执行这个命令出现student-write topic,那么证明我的程序确实起作用了,已经将其他集群的Kafka数据写入到本地Kafka了。
程序代码
public class FlinkSinkToKafka {
private static final String READ_TOPIC = "student";
public static void main(String[] args) throws Exception {
final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
props.put("zookeeper.connect",

本文详细介绍了如何使用 Flink 将数据流处理后写入 Kafka。首先,文章提到了 Flink 支持多种 Kafka 版本的 connector,并展示了如何配置 Flink 与 Kafka 的连接。接着,通过代码示例展示了 Flink 从 Kafka 源读取数据,处理后写入另一个 Kafka 主题的过程。最后,文章展示了如何检查写入 Kafka 的数据和主题状态,以及简单的日志分析。
最低0.47元/天 解锁文章
4606

被折叠的 条评论
为什么被折叠?



