文章目录
一、pom文件
Finl跟Kafka结合的包
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-connector-kafka-0.11_2.11</artifactId> <!--kafka版本是0.11 scala版本是2.11-->
<version>1.7.0</version> <!--flink版本是1.7.0-->
</dependency>
將json轉換成對象的依賴
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>1.2.47</version>
</dependency>
剩下做需要的包,我在文章: https://blog.csdn.net/qq_44472134/article/details/104193662 中的《API操作》中提过,不知道的可以到这个网址上看看
二、将Kafka作为数据源,通过Flink进行词频统计 关键词:keyBy() reduce()
kafkaUtil工具类
package com.kafkautil
import java.util.Properties
import org.apache.flink.api.common.serialization.SimpleStringSchema
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer011
/**
* TODO
*
* @author 徐磊
* @email wc199608203213@136.com
* @data2020/02/06 下午 06:27
*/
object KafkaUtil {
val prop = new Properties()
prop.setProperty("bootstrap.servers","no