Flink reduce详解

背景:
flink有两种reduce的方式,一种是正常的reduce,一种是windows窗口的reduce,本文主要介绍两种reduce方式的区别
1、正常的reduce
1.1 代码示例

 SingleOutputStreamOperator<WordWithCount> stream = env.addSource(KafkaUtils.getKafkaSource("bds_test","test","user2","user2@9981"))
        //transformation(转换算子)操作,对数据流实现计算;FlatMapFunction<T, O>: T代表输入格式,O代表返回格式
         .flatMap(new FlatMapFunction<String, WordWithCount>() {
            @Override
            // 将用户输入的文本流以非空白符的方式拆开来,得到单个的单词,
            // 存入命名为out的Collector中
            public void flatMap(String value, Collector<WordWithCount> out) throws Exception {
                String[] splits=value.split("\\s");             //通过空格切开
                for(String word:splits){
                    out.collect(new WordWithCount(word,1L));      //写数据处来的结果
                }
            }
        // 将输入的文本分为不相交的分区,每个分区包含的都是具有相同key的元素。
        // 也就是说,相同的单词被分在了同一个区域,下一步的reduce就是统计分区中的个数
        }).keyBy("word")
        // 一个在KeyedDataStream上“滚动”进行的reduce方法。
        // 将上一个reduce过的值和当前element结合,产生新的值并发送出。
        // 此处是说,对输入的两个对象进行合并,统计该单词的数量和
        // 这里使用 sum 或 reduce 都可以
        //.sum("count") ;  // 是对 reduce 的封装实现
        // reduce 返回类型 SingleOutputStreamOperator,继承了 DataStream
                .reduce(new ReduceFunction<WordWithCount>() {
                    @Override
                    public WordWithCount reduce(WordWithCount a, WordWithCount b) throws Exception {
                        return new WordWithCount(a.word,a.count+ b.count);
                    }
                });

从代码中可以看到reduce是跟在keyBy后面的,这时作用于reduce的类是一个KeyStream的类,reduce会保存之前计算的结果,然后和新的数据进行累加,所以每次输出的都是历史所有的数据的总和。
在上面的reduce(WordWithCount a, WordWithCount b) 中,第一个参数t是保存的历史数据,t1是最新的数据。


2、window的reduce
reduce是跟在窗口算子的后面的,这时作用于reduce的类是一个WindowedStream。
既然是针对WindowedStream的操作,很显然,每次reduce的操作都是针对同一个窗口内同一个key的数据进行计算,每个窗口计算完成后,才会把数据发出来。

可以看到,在WindowOperator类中的processElement函数中添加数据状态的时候就进行了reduce的操作,并不是等到整个窗口触发的时候才进行数据计算。等到整个窗口触发的时候,才把reduce计算的结果发送出去。
在上面的reduce(t: SensorReading, t1: SensorReading)函数中,第一个参数t就是同一个窗口内同一个key值的历史信息,第二个参数t1是同一个窗口内同一个key值的最新一条数据。

3、总结
1、keyBy算子之后的reduce,其实计算的是历史以来所有数据的和,每过来一条数据,就输出一次结果。
2、window算子之后的reduce,其实计算的是window窗口内的数据和,每次窗口触发的时候,才会输出一次结果。
 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Flink CEP (Complex Event Processing) 是 Flink 中的一个模块,它允许用户从无限的数据流中提取符合一定的规则的事件序列。Flink CEP 可以用于实时数据分析、复杂事件处理和模式匹配等场景。 Flink CEP 的 SQL API 可以使用标准 SQL 语句来定义模式和规则,并从数据流中提取符合规则的事件序列。下面是 Flink CEP SQL 的详解: 1. 安装 Flink CEP 要使用 Flink CEP SQL,首先需要安装 Flink CEP。可以通过以下命令安装: ``` ./bin/flink-cdc.sh --name flink-cep --version 1.11.2 --enable-cep ``` 2. 创建数据流表 要在 Flink CEP 中使用 SQL,需要先创建一个数据流表。可以使用以下命令来创建一个数据流表: ``` CREATE TABLE myStream ( event_id INT, event_type STRING, event_time TIMESTAMP(3), event_value DOUBLE, WATERMARK FOR event_time AS event_time - INTERVAL '5' SECOND ) WITH ( 'connector.type' = 'kafka', 'connector.version' = 'universal', 'connector.topic' = 'myTopic', 'connector.properties.zookeeper.connect' = 'localhost:2181', 'connector.properties.bootstrap.servers' = 'localhost:9092', 'connector.startup-mode' = 'earliest-offset', 'format.type' = 'json' ); ``` 在上面的命令中,我们使用 Kafka 作为数据源,并创建了一个名为 `myStream` 的数据流表。该表包含四个字段:`event_id`、`event_type`、`event_time` 和 `event_value`。`WATERMARK` 是用于定义事件时间的。在 Flink CEP 中,事件时间是用于确定事件发生的时间,而不是处理事件的时间。 3. 定义模式和规则 有了数据流表之后,我们就可以定义模式和规则了。在 Flink CEP SQL 中,可以使用 `PATTERN` 关键字来定义模式,使用 `DEFINE` 关键字来定义规则。 以下是一个简单的例子,它定义了一个模式和一个规则,以从数据流中提取所有事件类型为 `A`,并在这些事件之后发生事件类型为 `B` 的事件序列: ``` SELECT * FROM myStream MATCH_RECOGNIZE ( PARTITION BY event_type ORDER BY event_time MEASURES A.event_time AS start_time, B.event_time AS end_time ONE ROW PER MATCH PATTERN (A B) DEFINE A AS A.event_type = 'A', B AS B.event_type = 'B' ) MR; ``` 在上面的语句中,`PARTITION BY` 关键字用于指定按 `event_type` 字段分区,`ORDER BY` 关键字用于按 `event_time` 字段排序,`PATTERN` 关键字用于定义模式,`DEFINE` 关键字用于定义规则。 4. 执行查询 定义了模式和规则之后,我们可以执行查询来从数据流中提取符合规则的事件序列。可以使用以下命令来执行查询: ``` TableResult result = tableEnv.executeSql("SELECT ..."); ``` 在上面的命令中,`TableResult` 包含从数据流中提取的所有事件序列。可以使用 `TableResult.print()` 方法来打印结果。 总之,Flink CEP SQL 是一个强大的工具,可以用于实时数据分析、复杂事件处理和模式匹配等场景。它提供了一个简单的 API,可以使用标准 SQL 语句来定义模式和规则,并从数据流中提取符合规则的事件序列。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值