上一篇中我们在本地跑了一个wordcount,今天我们写一个流式的计算wordcount,读取kafka的数据进行实时的计算,把结果写入redis中;
pom文件如下:
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-scala_2.11</artifactId>
<version>1.6.0</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-clients_2.11</artifactId>
<version>1.6.0</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>f
本文介绍了如何使用Flink从Kafka读取数据,进行实时Wordcount计算,并将结果写入Redis。内容包括Flink程序的组成部分、POM文件配置、RedisSink的实现以及Flink作业的提交与监控。读者可以了解如何实现数据流处理的完整流程。
订阅专栏 解锁全文
434

被折叠的 条评论
为什么被折叠?



