demo flink写入kafka_Flink 写入数据到 Kafka

本文详细介绍了如何使用 Flink 将数据流处理后写入 Kafka。首先,文章提到了 Flink 支持多种 Kafka 版本的 connector,并展示了如何配置 Flink 与 Kafka 的连接。接着,通过代码示例展示了 Flink 从 Kafka 源读取数据,处理后写入另一个 Kafka 主题的过程。最后,文章展示了如何检查写入 Kafka 的数据和主题状态,以及简单的日志分析。
摘要由CSDN通过智能技术生成

Flink 写入数据到Kafka

前言

通过Flink官网可以看到Flink里面就默认支持了不少sink,比如也支持Kafka sink connector(FlinkKafkaProducer),那么这篇文章我们就来看看如何将数据写入到Kafka。

准备

Flink里面支持Kafka 0.8、0.9、0.10、0.11.

c94317de9692

这里我们需要安装下Kafka,请对应添加对应的Flink Kafka connector依赖的版本,这里我们使用的是0.11 版本:

org.apache.flink

flink-connector-kafka-0.11_2.11

${flink.version}

目前我们先看下本地Kafka是否有这个student-write topic呢?需要执行下这个命令:

➜ kafka_2.11-0.10.2.0 ./bin/kafka-topics.sh --list --zookeeper localhost:2181

__consumer_offsets

lambda-pipeline-topic

metrics

my-topic

my-topic-thread1

my-topic-thread2

qb_ad

qbad

qbad_test

student

topic1

wikipedia

wikipedia_stream

如果等下我们的程序运行起来后,再次执行这个命令出现student-write topic,那么证明我的程序确实起作用了,已经将其他集群的Kafka数据写入到本地Kafka了。

程序代码

public class FlinkSinkToKafka {

private static final String READ_TOPIC = "student";

public static void main(String[] args) throws Exception {

final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

Properties props = new Properties();

props.put("bootstrap.servers", "localhost:9092");

props.put("zookeeper.connect", 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值