flink 写kafka_Flink SQL实战 — Kafka篇

本文介绍了如何使用Flink SQL与Kafka集成,包括注册Flink table,选择关注的字段,以及构建Druid Cube进行实时OLAP分析。通过Flink SQL对Kafka中的数据进行实时流计算,并利用Druid的Kafka Indexing Service构建Druid datasource,简化了实时数据处理流程。
摘要由CSDN通过智能技术生成
随着Flink 1.11的发布, Flink SQL的功能和生态日渐强大。Flink内置了Kafka/JDBC/ElasticSearch/HBase/Filesystem等众多connecter,并支持常用的数据格式如json/avro/csv等,能够很方便的帮助用户通过SQL注册相对应的source表/sink表,利用Flink SQL进行计算,完成整个实时job的开发。相对于DataStream API或Table API,Flink SQL极大降低了Job开发复杂度,提升了开发效率。本系列文章将会介绍Flink SQL以及各connecter的使用实践,本文作为该系列的第一篇,主要介绍Flink SQL中Kafka的使用。 Kafka作为使用最广泛的消息队列,几乎成为各个互联网公司的标配,producer 将数据写入topic, 下游consumer通过订阅topic进行计算。Kafka在实时流计算中占居着非常重要的地位。

Flink SQL Kafka Connector使用实战

在本文示例中,我们使用Flink SQL消费Kafka进行窗口计算后结果再写回Kafka,通过Druid消费Kafka的数据进行OLAP Cube构建,最后Superset进行可视化;Kafka + Flink + Druid 的组合也是目前比较流行实时OLAP方案之一。完整链路如下:

8186fdccb702d53304e574b5e77d35ed.png

  1. 注册Flink table<
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值