java Flink(一)实现数据集简单demo

今天开始学习Flink,入手第一个Flink数据集demo

功能:把文件中的单词进行分词,统计个数

基本思路:读取文件内容-》数据集-》数据集统计二元组输出(word,count)

1、构建maven Flink项目

引入Flink依赖

<dependencies>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-java</artifactId>
            <version>1.10.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java_2.12</artifactId>
            <version>1.10.1</version>
        </dependency>
    </dependencies>

2、 添加单词文件

文件内容:

3、进行分词处理

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.DataSet;
import org.apache.flink.api.java.ExecutionEnvironment;
import org.apache.flink.api.java.operators.DataSource;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.util.Collector;
import scala.Int;

/**
 * 单次统计
 * 批处理
 */
public class WordCount {
    public static void main(String[] args) throws Exception{
        //创建执行环境
        ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
        //从文件中读取数据
        String inputPath = "D:\\idle\\FlinkTest\\src\\main\\resources\\word.txt";
        DataSet<String> inputDataSet = env.readTextFile(inputPath);
        //对数据集进行处理,按照空格进行分词,转换成(word,1)二元组进行统计
        DataSet<Tuple2<String, Integer>> resultSet = inputDataSet.flatMap(new MyflatMapper())
                .groupBy(0) //按照第一个位置的word分组
        .sum(1); //讲第二个位置上的数据求和

        resultSet.print();

    }

    //自定义类,实现FlatMapFunction接口
    public static class MyflatMapper implements FlatMapFunction<String, Tuple2<String, Integer>>{

        public void flatMap(String s, Collector<Tuple2<String, Integer>> collector) throws Exception {
            //按空格分词
            String[] words = s.split(" ");
            //遍历所有word,包成二元组输出
            for(String word:words){
                collector.collect(new Tuple2<String, Integer>(word, 1));
            }
        }
    }
}

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是一个 Flink 1.14 SQL 读取 Kafka 数据的示例代码: ```java import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.table.api.bridge.java.StreamTableEnvironment; import org.apache.flink.table.descriptors.*; import org.apache.flink.table.types.DataType; import org.apache.flink.types.Row; public class FlinkSQLKafkaDemo { public static void main(String[] args) throws Exception { // 创建 Flink 流执行环境 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // 创建 Flink Table 环境 StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env); // Kafka 配置 String topic = "test_topic"; String bootstrapServers = "localhost:9092"; String groupId = "test_group_id"; // 定义 Kafka 数据源 Kafka kafka = new Kafka() .version("universal") .topic(topic) .property("bootstrap.servers", bootstrapServers) .property("group.id", groupId); // 定义格式化器 Schema schema = new Schema() .field("name", DataTypes.STRING()) .field("age", DataTypes.INT()); // 创建一个临时表 tableEnv.connect(kafka) .withFormat(new Json().schema(schema)) .withSchema(new Schema() .field("name", DataTypes.STRING()) .field("age", DataTypes.INT())) .createTemporaryTable("test_table"); // 执行查询 TableResult result = tableEnv.executeSql("SELECT name, age FROM test_table WHERE age > 18"); // 输出结果 result.print(); } } ``` 这个示例代码演示了如何使用 Flink SQL 和 Kafka Connector 来读取 Kafka 数据,并在 SQL 查询中过滤数据。在示例中,我们首先定义了 Kafka 数据源和数据格式化器,然后使用 `createTemporaryTable` 方法创建了一个临时表,最后使用 `executeSql` 方法执行了一个 SQL 查询,并将结果打印出来。需要注意的是,示例中的 JSON 格式化器需要额外依赖 `flink-json` 库。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值