Flink的Java DataStream API实现多流转换

1 多流转换

1.1 多流转换简述

Flink 的实际应用中,可能需要将不同来源的数据连接合并在一起处理,也有可能需要将一条流拆分成多条流的处理场景,也就是所谓的多流转换。

多流转换:简单划分可以分为 分流合流 两大类。

分流:一般通过 侧输出流side output)方式实现。
合流:可以调用 unionconnectjoincoGroup等方式进行连接合并。

本文主要验证内容如下:

  • 分流:侧输出流(Side Output)
  • 合流:联合流(Union)、连接流(Connect)。

1.2 项目构建

项目完整目录结构:
多流转换项目结构图
pom.xml文件:

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <groupId>cn.mfox</groupId>
    <artifactId>multi-stream-transform</artifactId>
    <description>多流转换</description>
    <properties>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <maven.compiler.source>1.8</maven.compiler.source>
        <maven.compiler.target>1.8</maven.compiler.target>
        <flink.version>1.14.4</flink.version>
        <scala.binary.version>2.12</scala.binary.version>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java_2.12</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-java</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-clients_${scala.binary.version}</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-kafka_${scala.binary.version}</artifactId>
            <version>${flink.version}</version>
        </dependency>
    </dependencies>
    <build>
        <plugins>
            <plugin>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.6.0</version>
                <configuration>
                    <source>1.8</source>
                    <target>1.8</target>
                </configuration>
            </plugin>
        </plugins>
    </build>
</project>


2 分流

2.1 分流简述

分流:就是将一条数据流拆分成完全独立的两条或者多条数据输出流,也就是基于一个DataStream,得到完全平等的多个子DataStream。
分流图

2.2 案例说明

  • 数据输入流:定义不同用户(张三、李四等)的登录日志数据
  • 数据转换算子:定义一些筛选条件,使用侧输出流区分不同用户的登录日志数据。
  • 数据输出流:张三输出流、李四输出流、其余用户输出流。

2.3 代码编写

UserLoginLog.java 类:

package cn.mfox.stream.split.sideout;

/**
 * 用户登录日志
 *
 * @author hy
 * @version 1.0
 * @date 2022/4/15 10:23
 */
public class UserLoginLog {
    /**
     * 用户名
     */
    private String name;

    /**
     * 登录时间
     */
    private String time;

    public UserLoginLog() {
    }

    public UserLoginLog(String name, String time) {
        this.name = name;
        this.time = time;
    }

    public String getName() {
        return name;
    }

    public void setName(String name) {
        this.name = name;
    }

    public String getTime() {
        return time;
    }

    public void setTime(String time) {
        this.time = time;
    }

    @Override
    public String toString() {
        return "{" +
                "name='" + name + '\'' +
                ", time='" + time + '\'' +
                '}';
    }
}

SpliteUserLoginLogStreamBySideOutputTag.java 类:

package cn.mfox.stream.split.sideout;

import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.ProcessFunction;
import org.apache.flink.util.Collector;
import org.apache.flink.util.OutputTag;

/**
* 用侧输出流方式把一条数据流拆分为多条数据流输出
*
* @author hy
* @version 1.0
* @date 2022/4/15 9:26
*/
public class SpliteUserLoginLogStreamBySideOutputTag {
   public static void main(String[] args) throws Exception {
       // 1. 获取环境
       StreamExecutionEnvironment environment = StreamExecutionEnvironment.getExecutionEnvironment();
       environment.setParallelism(1);
       // 2. 添加元素
       DataStreamSource<UserLoginLog> loginLogDataStreamSource = environment.fromElements(
               new UserLoginLog("zhangsan", "2022-04-14 14:14:14"),
               new UserLoginLog("lisi", "2022-04-14 18:18:18"),
               new UserLoginLog("wangwu", "2022-04-14 20:20:20"),
               new UserLoginLog("zhangsan", "2022-04-15 15:15:15"),
               new UserLoginLog("zhangsan", "2022-04-15 16:16:16"),
               new UserLoginLog("zhaoliu", "2022-04-15 18:18:18")
       );
       // 3. 处理stream流
       SingleOutputStreamOperator<UserLoginLog> processedStream = loginLogDataStreamSource.process(
               new ProcessFunction<UserLoginLog, UserLoginLog>() {
                   @Override
                   public void processElement(UserLoginLog value, Context ctx, Collector<UserLoginLog> out) throws Exception {
                       if ("zhangsan".equals(value.getName())) {
                           ctx.output(ZhangSanOutTag, value);
                       } else if ("lisi".equals(value.getName())) {
                           ctx.output(LiSiOutTag, value);
                       } else {
                           out.collect(value);
                       }
                   }
               });
       // 4. 获取侧输出流并打印
       processedStream.getSideOutput(ZhangSanOutTag).print("ZhangSan Output Stream");
       processedStream.getSideOutput(LiSiOutTag).print("LiSi Output Stream");
       processedStream.print("Other Output Stream");
       // 5. 启动任务
       environment.execute();
   }

   /**
    * 张三输出标签
    */
   private static OutputTag<UserLoginLog> ZhangSanOutTag = new OutputTag<UserLoginLog>("zhangsan") {
   };

   /**
    * 李四输出标签
    */
   private static OutputTag<UserLoginLog> LiSiOutTag = new OutputTag<UserLoginLog>("lisi") {
   };

}

2.4 运行结果

控制台打印:
分流控制台输出截图
不同用户的输出流截图:
用户输出流图

3 合流

既然一条流可以分开,自然多条数据流也可以合并,在实际应用中,我们经常会遇到来源不同的多条数据流,需要将他们的数据进行合流操作。

3.1 联合流(Union)

3.1.1 联合流简述

联合流(Union):最简单的合流操作,就是直接将多条数据流合并在一起。
联合流图
联合流特性:

  • union()方法中的参数可以是多个DataStream,可以实现多条数据流合并。
  • 联合操作要求所有的数据类型必须相同。
  • 合并之后的新流中会包含所有流中的元素,数据类型不变。

3.1.2 案例说明

  • 数据输入流: 奇数数据流偶数数据流
  • 使用 union() 方法联合两种数据流并输出。

3.1.3 代码编写

UnionDataStream.java 类:

package cn.mfox.stream.merge.union;

import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

/**
 * union联合流(奇数和偶数联合输出)
 * 1. 不同流之间数据类型必须完全一致。
 * 2. union参数可以多个
 *
 * @author hy
 * @version 1.0
 * @date 2022/4/13 15:01
 */
public class UnionDataStream {
    public static void main(String[] args) throws Exception {
        // 创建环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);
        // 奇数流
        DataStreamSource<Integer> oddNumStream = env.fromElements(1, 3, 5, 7);
        // 偶数流
        DataStreamSource<Integer> evenStream = env.fromElements(2, 4, 6, 8);
        // 奇数流 联合(union) 偶数流
        DataStream<Integer> unionDataStream = oddNumStream.union(evenStream);
        // 打印控制台
        unionDataStream.print("UnionDataStream Sink");
        // 启动任务
        env.execute("UnionDataStream Job");
    }
}

3.1.4 运行结果

奇数流和偶数流合并


3.2 连接流(Connect)

3.2.1 连接流简述

连接流(Connect):联合流方式虽然简单,不过受限于数据类型不能改变,灵活性较低,所以实际应用较少,Flink中还有一种连接流(Connect),这种操作就是直接把两条数据流像接线一样连接起来。
连接流图

连接流特性:

  • connect()方式中的参数只有一个即只能两个流之间进行连接。
  • 两条数据流的数据类型可以不相同。

3.2.2 案例说明

  • 数据输入流: 数字数据流字符数据流
  • 使用 connect() 方法连接两种数据流并输出。

3.2.3 代码编写

ConnectDataStream.java类:

package cn.mfox.stream.merge.connect;

import org.apache.flink.streaming.api.datastream.ConnectedStreams;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.co.CoMapFunction;

/**
 * 连接流
 * 1. connect的参数只能有一个流,即只能两个流之间connect连接
 * 2. 两个数据流的数据类型可以不一致
 *
 * @author hy
 * @version 1.0
 * @date 2022/4/13 15:12
 */
public class ConnectDataStream {
    public static void main(String[] args) throws Exception {
        // 创建环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);
        // 定义数字流
        DataStreamSource<Integer> numStream = env.fromElements(1, 2, 3, 4);
        // 定义字符串流
        DataStreamSource<String> strStream = env.fromElements("A", "B", "C", "D");
        // numStream 连接 strStream
        ConnectedStreams<Integer, String> connectedStreams = numStream.connect(strStream);
        // map转换
        SingleOutputStreamOperator<String> mapStream = connectedStreams.map(
                new CoMapFunction<Integer, String, String>() {
                    /**
                     * 针对于 numStream 做map转换
                     * @param value
                     * @return
                     * @throws Exception
                     */
                    @Override
                    public String map1(Integer value) throws Exception {
                        return "数字:" + value.toString();
                    }

                    /**
                     * 针对于 strStream 做map转换
                     * @param value
                     * @return
                     * @throws Exception
                     */
                    @Override
                    public String map2(String value) throws Exception {
                        return "字符:" + value;
                    }
                }
        );
        // 控制台打印
        mapStream.print("ConnectDataStream Print Sink");
        // 启动任务
        env.execute("ConnectDataStream Job");
    }
}

3.2.4 运行结果

连接流运行结果


4 小结

当前进展:

  • 针对多流转换的简单案例已经初步完成。

后续任务:

  • 多流转换还需进一步学习及使用。
  • 后续补充多流join方式。
  • 多流转换涉及时间窗口等概念需进一步学习及使用。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值