java Flink(三十九)官方基础篇-算子概括(基础)

  今天回顾一下Flink官方对内部提供的算子的一个介绍。

算子:Map

  转换流:DataStream → DataStream 

  简单说明:取一个元素并产生一个元素。将输入流的值加倍的映射函数(必须产生数据)

  使用方式:

DataStream<Integer> dataStream = //...
dataStream.map(new MapFunction<Integer, Integer>() {
    @Override
    public Integer map(Integer value) throws Exception {
        return 2 * value;
    }
});

算子:FlatMap

  转换流:DataStream → DataStream 

  简单说明:取一个元素并产生零个、一个或多个元素。将句子拆分为单词的 flatmap 函数(不一定会产生数据)

  使用方式:

dataStream.flatMap(new FlatMapFunction<String, String>() {
    @Override
    public void flatMap(String value, Collector<String> out)
        throws Exception {
        for(String word: value.split(" ")){
            out.collect(word);
        }
    }
});

算子:Filter

  转换流:DataStream → DataStream

  简单说明:为每个元素计算一个布尔函数,并保留那些函数返回 true 的元素。过滤掉零值的过滤器

  使用方式:

dataStream.filter(new FilterFunction<Integer>() {
    @Override
    public boolean filter(Integer value) throws Exception {
        return value != 0;
    }
});

算子:KeyBy

  转换流:DataStream → KeyedStream

  简单说明:在逻辑上将流划分为不相交的分区。所有具有相同键的记录都分配到同一个分区。在内部,keyBy()是通过哈希分区实现的。有多种指定键的方法

  使用方式:

dataStream.keyBy(value -> value.getSomeKey());
dataStream.keyBy(value -> value.f0);

算子:Reduce

  转换流:KeyedStream → DataStream

  简单说明:键控数据流上的“滚动”减少。将当前元素与最后的值组合并发出新值。

  使用方式:

keyedStream.reduce(new ReduceFunction<Integer>() {
    @Override
    public Integer reduce(Integer value1, Integer value2)
    throws Exception {
        return value1 + value2;
    }
});

算子:Window 

  转换流:KeyedStream → WindowedStream

  简单说明:可以在已经分区的 KeyedStreams 上定义 Windows。Windows 根据某些特征(例如,最近 5 秒内到达的数据)对每个键中的数据进行分组

  使用方式:

dataStream
  .keyBy(value -> value.f0)
  .window(TumblingEventTimeWindows.of(Time.seconds(5))); 

算子:WindowAll 

  转换流:DataStreamStream → AllWindowedStream

  简单说明:可以在常规数据流上定义 Windows。Windows 根据某些特征(例如,在过去 5 秒内到达的数据)对所有流事件进行分组。

  使用方式:

dataStream
  .windowAll(TumblingEventTimeWindows.of(Time.seconds(5)));

算子:Window Apply

  转换流:

WindowedStream → DataStream (可以用于keyby后)

AllWindowedStream → DataStream

  简单说明:将通用函数应用于整个窗口。

  使用方式:

windowedStream.apply(new WindowFunction<Tuple2<String,Integer>, Integer, Tuple, Window>() {
    public void apply (Tuple tuple,
            Window window,
            Iterable<Tuple2<String, Integer>> values,
            Collector<Integer> out) throws Exception {
        int sum = 0;
        for (value t: values) {
            sum += t.f1;
        }
        out.collect (new Integer(sum));
    }
});

// applying an AllWindowFunction on non-keyed window stream
allWindowedStream.apply (new AllWindowFunction<Tuple2<String,Integer>, Integer, Window>() {
    public void apply (Window window,
            Iterable<Tuple2<String, Integer>> values,
            Collector<Integer> out) throws Exception {
        int sum = 0;
        for (value t: values) {
            sum += t.f1;
        }
        out.collect (new Integer(sum));
    }
});

算子:WindowReduce 

  转换流:WindowedStream → DataStream 

  简单说明:对窗口应用函数式缩减函数并返回缩减后的值。

  使用方式:

windowedStream.reduce (new ReduceFunction<Tuple2<String,Integer>>() {
    public Tuple2<String, Integer> reduce(Tuple2<String, Integer> value1, Tuple2<String, Integer> value2) throws Exception {
        return new Tuple2<String,Integer>(value1.f0, value1.f1 + value2.f1);
    }
});

算子:Union 

  转换流:DataStream* → DataStream

  简单说明:两个或多个数据流的联合创建一个包含所有流中所有元素的新流。注意:如果您将数据流与自身联合,您将在结果流中获得每个元素两次。

  使用方式:

dataStream.union(otherStream1, otherStream2, ...);

算子:Window Join

  转换流:DataStream,DataStream → DataStream

  简单说明:在给定的键和公共窗口上连接两个数据流。

  使用方式:

dataStream.join(otherStream)
    .where(<key selector>).equalTo(<key selector>)
    .window(TumblingEventTimeWindows.of(Time.seconds(3)))
    .apply (new JoinFunction () {...});

算子:Interval Join

  转换流:KeyedStream,KeyedStream → DataStream

  简单说明:在给定的时间间隔内使用公共密钥连接两个带键流的两个元素 e1 和 e2,使得e1.timestamp + lowerBound <= e2.timestamp <= e1.timestamp + upperBound.

  使用方式:

// this will join the two streams so that
// key1 == key2 && leftTs - 2 < rightTs < leftTs + 2
keyedStream.intervalJoin(otherKeyedStream)
    .between(Time.milliseconds(-2), Time.milliseconds(2)) // lower and upper bound
    .upperBoundExclusive(true) // optional
    .lowerBoundExclusive(true) // optional
    .process(new IntervalJoinFunction() {...});

算子:Window CoGroup

  转换流:DataStream,DataStream → DataStream

  简单说明:将给定键和公共窗口上的两个数据流组合在一起。

  使用方式:

dataStream.coGroup(otherStream)
    .where(0).equalTo(1)
    .window(TumblingEventTimeWindows.of(Time.seconds(3)))
    .apply (new CoGroupFunction () {...});

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
flink-shaded-hadoop-3-uber.jar是一个用于Flink的Hadoop 3.x Uber JAR包。Hadoop是一个用于处理大规模数据的开源分布式计算框架,而Flink则是另一个用于流处理和批处理的分布式计算框架。 Hadoop 3.x是Hadoop的最新版本,相比于之前的版本,它引入了许多新的功能和改进。flink-shaded-hadoop-3-uber.jar被用来解决Flink与Hadoop 3.x版本之间的兼容性问题。它包含了Flink所需的Hadoop 3.x依赖的库文件和代码,并将它们以Uber JAR的形式打包在一起。 Uber JAR是将一个应用程序和其所有依赖打包为一个独立的JAR文件的方法。flink-shaded-hadoop-3-uber.jar是一个包含了Flink与Hadoop 3.x兼容性所需的所有库文件和代码的Uber JAR文件。这样,当我们在使用Flink与Hadoop 3.x进行分布式计算时,只需要将这个Uber JAR文件添加到我们的Flink应用程序,就可以正常运行。 通过使用flink-shaded-hadoop-3-uber.jar,Flink能够利用Hadoop 3.x的新功能和改进,例如支持更高的数据可靠性、更高的性能和更好的容错性。此外,由于所有必需的库文件和代码都被打包在一起,我们可以简化配置和部署过程,减少潜在的兼容性问题。 总之,flink-shaded-hadoop-3-uber.jar是一个用于解决Flink与Hadoop 3.x兼容性问题的Uber JAR文件,它包含了Flink所需的Hadoop 3.x依赖的所有库文件和代码,能够让我们更方便地使用Flink与Hadoop 3.x进行分布式计算。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值