flink-java版学习-6-reduce聚合

 

reduce聚合操作和hive的map-reduce框架中的reduce操作类似

个人理解:keyBy+Max这种算子和reduce算子的区别在于,reduce可以多字段聚合,前者只能单字段

reduce通过滚动计算取得当前最大值

由于之前数据集有时间乱序,出来的结果不够直观,这里调整下数据集

sensor_1,1547718200,34.8
sensor_1,1547718288,34.8
sensor_1,1547719200,37.8
sensor_1,1547719280,39.8
sensor_6,1547718201,35.5
sensor_7,1547718214,35.3
sensor_10,1547718234,15.8
sensor_1,1547719999,55.8

测试代码:

package com.shihuo.apitest_transform;

import com.shihuo.com.shihuo.apitest_beans.SensrReading;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.functions.ReduceFunction;
import org.apache.flink.api.java.tuple.Tuple;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

public class TransformTest3_Reduce {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);

        // 从文件读取数据
        String inputPath = "/Users/wangyuhang/Desktop/FlinkTutorial/src/main/resources/sensor.txt";
        DataStream<String> stringDataStream = env.readTextFile(inputPath);

        //转换成sensorreading类型
        DataStream<SensrReading> dataStream = stringDataStream.map(new MapFunction<String, SensrReading>() {
            @Override
            public SensrReading map(String value) throws Exception {
                String[] fields = value.split(",");
                return new SensrReading(fields[0],new Long(fields[1]),new Double(fields[2]));
            }
        });


        //分组
        KeyedStream<SensrReading, Tuple> keyedStream = dataStream.keyBy("id");
        //reduce聚合,取最大的温度值,以及当前最新的时间戳
        keyedStream.reduce(new ReduceFunction<SensrReading>() {
            @Override
            public SensrReading reduce(SensrReading value1, SensrReading value2) throws Exception {
                return new SensrReading(value1.getId(),value2.getTimestamp(),Math.max(value1.getTemperature(),value2.getTemperature()));
            }
        });

//        keyedStream.reduce((curState,newData) -> {
//            return new SensrReading(curState.getId(),newData.getTimestamp(),Math.max(curState.getTemperature(),newData.getTemperature()));
//        });

        keyedStream.print();
        env.execute();
    }
}

输出结果如下:

SensrReading{id='sensor_1', timestamp=1547718200, temperature=34.8}
SensrReading{id='sensor_1', timestamp=1547718288, temperature=34.8}
SensrReading{id='sensor_1', timestamp=1547719200, temperature=37.8}
SensrReading{id='sensor_1', timestamp=1547719280, temperature=39.8}
SensrReading{id='sensor_6', timestamp=1547718201, temperature=35.5}
SensrReading{id='sensor_7', timestamp=1547718214, temperature=35.3}
SensrReading{id='sensor_10', timestamp=1547718234, temperature=15.8}
SensrReading{id='sensor_1', timestamp=1547719999, temperature=55.8}

结果主要体现在前2个数据上

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 这些都是 Flink 中的数据转换操作,它们可以对数据流进行聚合、合并、转换等操作。其中 reduce 和 fold 都是对数据流中的元素进行聚合操作,不同之处在于 reduce 是基于两个元素进行聚合,而 fold 是基于一个初始值和一个元素进行聚合。Aggregate 则是对数据流中的元素进行合并操作,可以使用预定义的聚合函数或自定义聚合函数。Apply 则是对数据流中的每个元素进行转换操作,可以使用预定义的函数或自定义函数。 ### 回答2: Flink是一个分布式大数据处理框架,提供了多种操作函数来对数据进行处理。其中reduce、aggregate、fold和apply都是常用的操作函数。 1. Reduce函数(缩减函数):reduce函数用于将输入的多个元素进行聚合操作,返回一个单一的结果。它是一个折叠操作,将每个输入元素依次传递给聚合函数,产生一个累积的结果。这个函数通常用于对数据流中的元素进行求和、求平均、求最大值等简单的聚合操作。 2. Aggregate函数(累计函数):aggregate函数与reduce函数类似,也是用于将输入的多个元素进行聚合操作。不同之处在于,aggregate函数可以接收一个初始值,对输入元素进行累加操作,并将结果返回。通常情况下,aggregate函数用于实现更加复杂的聚合操作,例如计算每个窗口的平均值、最大值等。 3. Fold函数(折叠函数):fold函数是reduce函数的一种特殊形式,它将输入的元素进行聚合操作,并返回一个和输入元素类型相同的结果。与reduce函数不同的是,fold函数接收一个初始值,将其作为第一个输入元素,然后依次将输入元素进行折叠操作,最终返回结果。通常情况下,fold函数用于将数据流中的元素进行聚合,并返回一个新的结果。 4. Apply函数(应用函数):apply函数是一个通用的操作函数,它可以接收任意的输入和输出类型,并对数据进行处理。apply函数通常用于实现自定义的数据转换、筛选或其他复杂的处理逻辑。我们可以在apply函数中编写自己的业务逻辑,对数据流进行任意的处理操作。 总而言之,reduce、aggregate、fold和apply函数都是用于对Flink数据流进行处理和聚合的常用操作函数,它们在不同的场景下有不同的应用和效果。 ### 回答3: Flink是一个用于大规模流数据处理和批处理的流行开源框架。在Flink中,reduce、aggregate、fold和apply是用于数据处理的操作函数。 1. Reduce(规约):Reduce函数用于合并流数据集中的元素,将多个元素聚合成一个元素。Reduce操作将应用到每个流数据集的每个元素上,并将结果进行合并,返回一个新的流数据集。例如,可以使用Reduce函数来计算流数据集中的元素的总和或最大值。 2. Aggregate(聚合):Aggregate函数类似于Reduce函数,但是它可以进行更复杂的聚合操作。Aggregate操作将一个输入数据集聚合为一个或多个结果,并可以带有中间状态。它可以用于实现统计操作,例如计算平均值或中位数。 3. Fold(折叠):Fold函数与Reduce函数类似,它也是将多个元素聚合成一个元素。但是与Reduce函数不同的是,Fold函数可以指定一个初始值,并对每个元素应用聚合操作。Fold函数将应用到每个流数据集的每个元素上,并将结果进行合并,返回一个新的流数据集。例如,可以使用Fold函数来计算流数据集中元素的累加和。 4. Apply(应用):Apply函数用于在流数据集上应用用户自定义的函数。它可以接受一个或多个输入流数据集,并生成一个或多个输出流数据集。Apply函数在流数据集上执行指定的用户定义的操作,可以是映射、过滤、转换等。通过Apply函数,用户可以根据自己的需求对流数据进行灵活的处理和操作。 总结:flink中的reduce、aggregate、fold和apply是用于对流数据集进行处理和操作的函数。它们分别用于合并、聚合、折叠和应用操作,可以帮助用户实现各种数据处理需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值