Flink中的分流合流操作

分流

所谓“分流”,就是将一条数据流拆分成完全独立的两条、甚至多条流。也就是基于DataStream,得到完全平等的多个子 DataStream,一般来说,我们会定义一些筛选条件,将符合条件的数据拣选出来放到对应的流里。

1、基于filter()方法进行筛选

public class SplitStreamByFilter {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);
        SingleOutputStreamOperator<Event> stream = env.addSource(new ClickSource());
        // 筛选 Mary 的浏览行为放入 MaryStream 流中
        DataStream<Event> MaryStream = stream.filter(new FilterFunction<Event>() {
            @Override
            public boolean filter(Event value) throws Exception {
                return value.user.equals("Mary");
            }
        });
        // 筛选 Bob 的购买行为放入 BobStream 流中
        DataStream<Event> BobStream = stream.filter(new FilterFunction<Event>() {
            @Override
            public boolean filter(Event value) throws Exception {
                return value.user.equals("Bob");
            }
        });
        // 筛选其他人的浏览行为放入 elseStream 流中
        DataStream<Event> elseStream = stream.filter(new FilterFunction<Event>() {
            @Override
            public boolean filter(Event value) throws Exception {
                return !value.user.equals("Mary") && !value.user.equals("Bob");
            }
        });
        MaryStream.print("Mary pv");
        BobStream.print("Bob pv");
        elseStream.print("else pv");
        env.execute();
    }
}

这种实现非常简单,但代码显得有些冗余——我们的处理逻辑对拆分出的三条流其实是一样的,却重复写了三次。而且这段代码背后的含义,是将原始数据流 stream 复制三份,然后对每一份分别做筛选;这明显是不够高效的。

2、基于侧输出流输出

public class SplitStreamByOutputTag {  
    // 定义输出标签,侧输出流的数据类型为三元组(user, url, timestamp)
    private static OutputTag<Tuple3<String, String, Long>> MaryTag = new OutputTag<Tuple3<String, String, Long>>("Mary-pv") {};
    private static OutputTag<Tuple3<String, String, Long>> BobTag = new OutputTag<Tuple3<String, String, Long>>("Bob-pv") {};

    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);
        SingleOutputStreamOperator<Event> stream = env.addSource(new ClickSource());
        SingleOutputStreamOperator<Event> processedStream = stream.process(new ProcessFunction<Event, Event>() {
            @Override
            public void processElement(Event value, Context ctx, Collector<Event> out) throws Exception {
                if (value.user.equals("Mary")) {
                    ctx.output(MaryTag, new Tuple3<>(value.user, value.url, value.timestamp));
                } else if (value.user.equals("Bob")) {
                    ctx.output(BobTag, new Tuple3<>(value.user, value.url, value.timestamp));
                } else {
                    out.collect(value);
                }
            }
        });
        processedStream.getSideOutput(MaryTag).print("Mary pv");
        processedStream.getSideOutput(BobTag).print("Bob pv");
        processedStream.print("else");
        env.execute();
    }
}

这里我们定义了两个侧输出流,分别拣选 Mary 的浏览事件和 Bob 的浏览事件;由于类型已经确定,我们可以只保留(用户 id, url, 时间戳)这样一个三元组。而剩余的事件则直接输出到主流,类型依然保留 Event,就相当于之前的 elseStream。这样的实现方式显然更简洁,也更加灵活。
 

合流

联合(Union

最简单的合流操作,就是直接将多条流合在一起,叫作流的“联合”(union),联合操作要求必须流中的数据类型必须相同,合并之后的新流会包括所有流中的元素,数据类型不变。这种合流方式非常简单粗暴,就像公路上多个车道汇在一起一样。

stream1.union(stream2, stream3, ...)

注意:对于合流之后的水位线,也是要以最小的那个为准,这样才可以保证所有流都不会再传来之前的数据

连接(Connect)

连接得到的并不是 DataStream,而是一个“连接流”(ConnectedStreams)。连接流可以看成是两条流形式上的“统一”,被放在了一个同一个流中;事实上内部仍保持各自的数据形式不变,彼此之间是相互独立的。要想得到新的 DataStream,还需要进一步定义一个“同处理”(co-process)转换操作,用来说明对于不同来源、不同类型的数据,怎样分别进行处理转换、得到统一的输出类型。所以整体上来,两条流的连接就像是“一国两制”,两条流可以保持各自的数据类型、处理方式也可以不同,不过最终还是会统一到同一个 DataStream 中。

public class CoMapExample {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);
        DataStream<Integer> stream1 = env.fromElements(1, 2, 3);
        DataStream<Long> stream2 = env.fromElements(1L, 2L, 3L);
        ConnectedStreams<Integer, Long> connectedStreams = stream1.connect(stream2);
        SingleOutputStreamOperator<String> result = connectedStreams.map(new CoMapFunction<Integer, Long, String>() {
            @Override
            public String map1(Integer value) {
                return "Integer: " + value;
            }

            @Override
            public String map2(Long value) {
                return "Long: " + value;
            }
        });
        result.print();
        env.execute();
    }
}

注意:ConnectedStreams 也可以直接调用.keyBy()进行按键分区的操作,得到的还是一个 ConnectedStreams,可用理解为一个join的操作。

connectedStreams.keyBy(keySelector1, keySelector2);

CoProcessFunction()方法

对于连接流 ConnectedStreams 的处理操作,需要分别定义对两条流的处理转换,因此接口中就会有两个相同的方法需要实现,用数字“1”“2”区分,在两条流中的数据到来时分别调用。我们把这种接口叫作“协同处理函数”(co-process function)。与 CoMapFunction 类似,如果是调用.flatMap()就需要传入一个 CoFlatMapFunction,需要实现 flatMap1()、flatMap2()两个方法;而调用.process()时,传入的则是一个 CoProcessFunction。

广播连接流(BroadcastConnectedStream)

关于两条流的连接,还有一种比较特殊的用法:DataStream 调用.connect()方法时,传入的参数也可以不是一个 DataStream,而是一个“广播流”(BroadcastStream),这时合并两条流得到的就变成了一个“广播连接流”(BroadcastConnectedStream),要用普通数据流connect广播流
 

基于时间的合流——双流联结(Join)

Window Join

1、Tumbling Window Join

DataStream<Integer> orangeStream = ...
DataStream<Integer> greenStream = ...

orangeStream.join(greenStream)
    .where(<KeySelector>)
    .equalTo(<KeySelector>)
    .window(TumblingEventTimeWindows.of(Time.milliseconds(2)))
    .apply(new JoinFunction<Integer, Integer, String> (){
        @Override
        public String join(Integer first, Integer second) {
            return first + "," + second;
        }
    });

缺点:可能存在数据丢失的问题

2、Sliding Window Join

DataStream<Integer> orangeStream = ...
DataStream<Integer> greenStream = ...

orangeStream.join(greenStream)
    .where(<KeySelector>)
    .equalTo(<KeySelector>)
    .window(SlidingEventTimeWindows.of(Time.milliseconds(2) /* size */, Time.milliseconds(1) /* slide */))
    .apply(new JoinFunction<Integer, Integer, String> (){
        @Override
        public String join(Integer first, Integer second) {
            return first + "," + second;
        }
    });

缺点:可能存在数据重复的问题

3、Session Window Join

DataStream<Integer> orangeStream = ...
DataStream<Integer> greenStream = ...

orangeStream.join(greenStream)
    .where(<KeySelector>)
    .equalTo(<KeySelector>)
    .window(EventTimeSessionWindows.withGap(Time.milliseconds(1)))
    .apply(new JoinFunction<Integer, Integer, String> (){
        @Override
        public String join(Integer first, Integer second) {
            return first + "," + second;
        }
    });

缺点:如果数据一直传入,session不断开,导致长时间的没输出,失去了实时的功能。

Interval Join

右流相对左流偏移的时间区间进行关联,即:

right.timestamp ∈ [left.timestamp + lowerBound; left.timestamp + upperBound]

DataStream<Integer> orangeStream = ...
DataStream<Integer> greenStream = ...

orangeStream
    .keyBy(<KeySelector>)
    .intervalJoin(greenStream.keyBy(<KeySelector>))
    .between(Time.milliseconds(-2), Time.milliseconds(1))
    .process(new ProcessJoinFunction<Integer, Integer, String(){
        @Override
        public void processElement(Integer left, Integer right, Context ctx, Collector<String> out) {
            out.collect(first + "," + second);
        }
    });

注意:

  1. 目前 interval join 只支持 Event time,所以要在流中定义事件事件。
  2.  以上几种join方式都是inner join

窗口同组联结(Window CoGroup)

        除窗口联结和间隔联结之外,Flink 还提供了一个“窗口同组联结”(window coGroup)操
作。它的用法跟 window join 非常类似,也是将两条流合并之后开窗处理匹配的元素,调用时
只需要将.join()换为.coGroup()就可以。
stream1.coGroup(stream2)
 .where(<KeySelector>)
 .equalTo(<KeySelector>)
 .window(TumblingEventTimeWindows.of(Time.hours(1)))
 .apply(<CoGroupFunction>)
与 window join 的区别在于,调用.apply()方法定义具体操作时,传入的是一个CoGroupFunction。这也是一个函数类接口,源码中定义如下:
public interface CoGroupFunction<IN1, IN2, O> extends Function, Serializable {
 void coGroup(Iterable<IN1> first, Iterable<IN2> second, Collector<O> out) 
throws Exception;
}

可以理解为传入为俩个自定义的收集器,输出为一个自定义的收集器

connect操作join操作的区别

onnect操作比join操作更通用。Connect确保两个流( key控的或未锁定的)在同一个位置(在coxxx函数中的同一个并行实例)相遇。

一个流可以是操纵应用于另一个流的行为的控制流。例如,您可以输入新的机器学习模型或其他业务规则。或者,可以使用 key控并在同一位置汇合的两个流的属性进行 join。Flink提供了一些预定义的 join运算符。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Flink是一个开源的大数据处理框架,可以用于实时流处理和批处理。 使用Java编写Flink代码需要几个步骤: 1. 创建Maven项目并添加Flink依赖。 在pom.xml文件加入如下依赖: ``` <dependencies> <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-java</artifactId> <version>1.12.0</version> </dependency> </dependencies> ``` 2. 创建数据源。 Flink支持多种数据源,比如文件、Kafka、Socket等。你可以使用如下代码创建一个文件数据源: ``` // 创建数据源 DataStream<String> text = env.readTextFile("file:///path/to/file"); ``` 3. 定义转换操作Flink支持许多转换操作,比如map、filter、reduce等。你可以使用如下代码对数据流的每条记录执行map操作: ``` // 定义转换操作 DataStream<Integer> numbers = text.map(new MapFunction<String, Integer>() { @Override public Integer map(String value) throws Exception { return Integer.parseInt(value); } }); ``` 4. 定义数据分流逻辑。 Flink提供了split和select操作来实现数据分流。你可以使用如下代码对数据流进行分流: ``` // 定义数据分流逻辑 SplitStream<Integer> splitStream = numbers.split(new OutputSelector<Integer>() { @Override public Iterable<String> select(Integer value) { List<String> outputs = new ArrayList<>(); if (value % 2 == 0) { outputs.add("even"); ### 回答2: Flink 是一个开源的流处理框架,使用 Java 编写 Flink 分流代码可以帮助我们对数据进行高效的处理和分析。下面是一个简单的示例: ```java // 导入必要的包 import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.SplitStream; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; public class FlinkDataStreamSplitExample { public static void main(String[] args) throws Exception { // 创建 Flink 执行环境 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // 生成一个包含一系列整数的输入流 DataStream<Integer> input = env.fromElements(1, 2, 3, 4, 5); // 使用 MapFunction 将输入流分成两个流 SplitStream<Integer> splitStream = input.split(new MySplitter()); // 通过选择器选择不同的输出流并进行处理 DataStream<Integer> evenStream = splitStream.select("even"); DataStream<Integer> oddStream = splitStream.select("odd"); // 在控制台打印偶数流和奇数流 evenStream.print(); oddStream.print(); // 执行作业 env.execute("Flink Data Stream Split Example"); } // 自定义分流逻辑 public static class MySplitter implements org.apache.flink.streaming.api.collector.selector.OutputSelector<Integer> { @Override public Iterable<String> select(Integer value) { if (value % 2 == 0) { // 偶数流选择器 return Collections.singletonList("even"); } else { // 奇数流选择器 return Collections.singletonList("odd"); } } } } ``` 这段代码首先导入 Flink 相关的包,并创建了一个 Flink 执行环境。然后,它生成了一个包含一系列整数的输入流。接下来使用 `MapFunction` 对输入流进行分流操作,将其分成两个流,其一个流包含偶数,另一个流包含奇数。再通过选择器选择要处理的流,并在控制台打印。最后,使用 `execute` 方法执行 Flink 作业。 这只是一个简单的示例,实际业务场景会更加复杂。在实际应用,我们可以根据具体需求自定义分流逻辑,以便更好地处理数据。 ### 回答3: 使用Java编写flink数据分流代码可以借助DataStream API来实现。首先,我们需要创建一个ExecutionEnvironment或者StreamExecutionEnvironment对象来执行任务,并导入必要的flink依赖包。 以下是一个示例代码,演示了如何使用Java编写flink数据分流代码: ```java import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.SplitStream; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; public class DataStreamSplitExample { public static void main(String[] args) throws Exception { // 创建执行环境 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // 创建数据流 DataStream<String> inputDataStream = env.socketTextStream("localhost", 9999); // 对数据流进行分流处理 SplitStream<Tuple2<String, Integer>> splitStream = inputDataStream .flatMap((String value, Collector<Tuple2<String, Integer>> out) -> { // 对数据进行拆分,生成一个新的数据流 String[] words = value.split(" "); for (String word : words) { out.collect(new Tuple2<>(word, 1)); } }) .split((OutputSelector<Tuple2<String, Integer>>) value -> { // 通过定义OutputSelector来对数据流进行分流 List<String> output = new ArrayList<>(); if (value.f0.contains("java")) { output.add("java"); } else if (value.f0.contains("python")) { output.add("python"); } else { output.add("other"); } return output; }); // 获取分流后的数据流 DataStream<Tuple2<String, Integer>> javaDataStream = splitStream.select("java"); DataStream<Tuple2<String, Integer>> pythonDataStream = splitStream.select("python"); DataStream<Tuple2<String, Integer>> otherDataStream = splitStream.select("other"); // 打印结果 javaDataStream.print("Java Stream"); pythonDataStream.print("Python Stream"); otherDataStream.print("Other Stream"); // 执行任务 env.execute("DataStreamSplitExample"); } } ``` 在上述代码,我们首先创建了一个执行环境,并使用socketTextStream方法创建了一个输入数据流。然后,通过对数据流进行flatMap操作,将输入数据拆分成一个新的数据流。接着,使用split方法对新的数据流进行分流,根据指定的条件将数据流分为不同的子流。最后,通过select方法获取分流后的子流,并通过print方法打印结果。最后,执行任务并指定任务名称为"DataStreamSplitExample"。 以上是一个简单的例子,可以根据实际需求和数据类型进行相应的调整和扩展。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值