Flink系列-10、Flink DataStream的Transformation

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

大数据系列文章目录

官方网址https://flink.apache.org/

学习资料https://flink-learning.org.cn/
在这里插入图片描述

官网所有的Transformation操作

DataStream包括一系列的Transformation操作:
https://ci.apache.org/projects/flink/flink-docs-release-1.10/dev/stream/operators/index.html

KeyBy

在这里插入图片描述
按照指定的key来进行分流,类似于SQL中的groupBy。

示例
自定义数据源, 进行单词的计数

开发步骤

  • 获取流处理运行环境
  • 设置并行度
  • 获取数据源
  • 转换操作
    (1) 以空白进行分割
    (2) 给每个单词计数1
    (3) 根据单词分组
  • 求和
  • 打印到控制台
  • 执行任务
package batch.transformation;

import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

/**
 * @author lwh
 * @date 2023/4/25
 * @description 演示keyBy方法 也使用了aggregate方法的sum求和
 **/
public class KeyByDemo {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        // 设置全局并行度为1
        env.setParallelism(1);
        // Get source
        DataStreamSource<Tuple2<String, Integer>> source = env.fromElements(
                Tuple2.of("篮球", 1),
                Tuple2.of("篮球", 2),
                Tuple2.of("篮球", 3),
                Tuple2.of("足球", 3),
                Tuple2.of("足球", 2),
                Tuple2.of("足球", 3)
        );
        // 分组加聚合计算, 类似SQL的group by 后加聚合函数求每个组的数据
        // 有一点要注意的是, SQL中是对分组后的每个组的全量数据做聚合计算, 是批计算
        // 在流计算内,是来一条计算一条,也就是每个组的数据,挨个进行计算,求和累加,所以结果中最后一个打印的数据才是最终的求和结果
        SingleOutputStreamOperator<Tuple2<String, Integer>> sum = source.keyBy(0).sum(1);

        // 如果不分组的话, sum的结果是 1+2+3+3+2+3 = 14 分组后是 篮球 6  足球 8
        sum.print();
        env.execute();

    }
}

在这里插入图片描述

Reduce

在这里插入图片描述
可以对一个datastream或者一个group来进行聚合计算,最终聚合成一个元素

数据源

86.149.9.216 10001 17/05/2015:10:05:30 GET /presentations/logstash-monitorama-2013/images/github-contributions.png
83.149.9.216 10002 17/05/2015:10:06:53 GET /presentations/logstash-monitorama-2013/css/print/paper.css
83.149.9.216 10002 17/05/2015:10:06:53 GET /presentations/logstash-monitorama-2013/css/print/paper.css
83.149.9.216 10002 17/05/2015:10:06:53 GET /presentations/logstash-monitorama-2013/css/print/paper.css
83.149.9.216 10002 17/05/2015:10:06:53 GET /presentations/logstash-monitorama-2013/css/print/paper.css
83.149.9.216 10002 17/05/2015:10:06:53 GET /presentations/logstash-monitorama-2013/css/print/paper.css
83.149.9.216 10002 17/05/2015:10:06:53 GET /presentations/logstash-monitorama-2013/css/print/paper.css
10.0.0.1 10003 17/05/2015:10:06:53 POST /presentations/logstash-monitorama-2013/css/print/paper.css
10.0.0.1 10003 17/05/2015:10:07:53 POST /presentations/logstash-monitorama-2013/css/print/paper.css
10.0.0.1 10003 17/05/2015:10:08:53 POST /presentations/logstash-monitorama-2013/css/print/paper.css
10.0.0.1 10003 17/05/2015:10:09:53 POST /presentations/logstash-monitorama-2013/css/print/paper.css
10.0.0.1 10003 17/05/2015:10:10:53 POST /presentations/logstash-monitorama-2013/css/print/paper.css
10.0.0.1 10003 17/05/2015:10:16:53 POST /presentations/logstash-monitorama-2013/css/print/paper.css
10.0.0.1 10003 17/05/2015:10:26:53 POST /presentations/logstash-monitorama-2013/css/print/paper.css
10.0.0.1 10003 17/05/2015:10:26:53 POST /presentations/logstash-monitorama-2013/css/print/paper.css

示例
读取本地文件,根据IP地址统计计数

步骤

  • 获取ExecutionEnvironment运行环境
  • 使用fromCollection构建数据源
  • 使用reduce执行聚合操作
  • 打印测试
package batch.transformation;

import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.functions.ReduceFunction;
import org.apache.flink.api.java.ExecutionEnvironment;
import org.apache.flink.api.java.operators.DataSource;
import org.apache.flink.api.java.operators.MapOperator;
import org.apache.flink.api.java.operators.ReduceOperator;
import org.apache.flink.api.java.operators.UnsortedGrouping;
import org.apache.flink.api.java.tuple.Tuple2;

/**
 * @author lwh
 * @date 2023/4/25 
 * @description 
 **/
public class ReduceDemo {
    public static void main(String[] args) throws Exception {
        ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();

        DataSource<String> logSource = env.readTextFile("data/input/apache.log");

        // 提取IP, 后面都跟上1(作为元组返回)
        MapOperator<String, Tuple2<String, Integer>> ipWithOne = logSource.map(new MapFunction<String, Tuple2<String, Integer>>() {
            @Override
            public Tuple2<String, Integer> map(String value) throws Exception {
                String ip = value.split(" ")[0];
                return Tuple2.of(ip, 1);
            }
        });

        // 分组 + reduce聚合
        UnsortedGrouping<Tuple2<String, Integer>> grouped = ipWithOne.groupBy(0);

        // reduce 聚合
        ReduceOperator<Tuple2<String, Integer>> result = grouped.reduce(new ReduceFunction<Tuple2<String, Integer>>() {
            @Override
            public Tuple2<String, Integer> reduce(Tuple2<String, Integer> value1, Tuple2<String, Integer> value2) throws Exception {
                return Tuple2.of(value1.f0, value1.f1 + value2.f1);
            }
        });

        result.print();
    }
}

在这里插入图片描述

Aggregations

按照内置的方式来进行聚合。例如:SUM/MIN/MAX…

示例
请将以下元组数据,使用aggregate操作进行单词统计

("java" , 1) , ("java", 1) ,("scala" , 1)

步骤

  • 获取StreamExecutionEnvironment运行环境
  • 使用fromCollection构建数据源
  • 使用groupBy按照单词进行分组
  • 使用aggregate对每个分组进行SUM统计
  • 打印测试
package batch.transformation;

import org.apache.flink.api.java.tuple.Tuple;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

import java.util.Arrays;

/**
 * @author lwh
 * @date 2023/4/25
 * @description 使用内置的方式进行聚合数据 , aggregate只能将数据作用到元组上,例如:sum\Max\min
 **/
public class StreamAggregateDemo {

    public static void main(String[] args) throws Exception {
        //1:获取ExecutionEnvironment运行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        //2: 使用`fromCollection`构建数据源
        DataStreamSource<Tuple2<String, Integer>> tupleDataStream = env.fromCollection(
                Arrays.asList(Tuple2.of("java", 1), Tuple2.of("java", 1), Tuple2.of("scala", 1)));

        //3. 使用groupBy按照单词进行分组
        KeyedStream<Tuple2<String, Integer>, Tuple> keyByStream = tupleDataStream.keyBy(0);

        //4. 使用aggregate对每个分组进行SUM统计
        SingleOutputStreamOperator<Tuple2<String, Integer>> resultDataStream = keyByStream.sum( 1);

        resultDataStream.printToErr();

        env.execute();

    }
}

在这里插入图片描述

Union

在这里插入图片描述
将两个DataStream取并集,不会去重。
两个DS的泛型需要一致

示例
将以下数据进行取并集操作
数据集1

"hadoop", "hive", "flume"

数据集2

"hadoop", "hive", "spark"

步骤

  • 构建流处理运行环境
  • 使用fromCollection创建两个数据源
  • 使用union将两个数据源关联在一起
  • 打印测试
package batch.transformation;

import org.apache.flink.api.java.ExecutionEnvironment;
import org.apache.flink.api.java.operators.DataSource;

/**
 * @author lwh
 * @date 2023/4/25 
 * @description 合并多个流,类型必须要一致
 **/
public class UnionDemo {
    public static void main(String[] args) throws Exception {
        ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
        DataSource<String> source1 = env.fromElements("hadoop", "hive", "flume");
        DataSource<String> source2 = env.fromElements("yarn", "hive", "spark");

        source1.union(source2).print();
        /*
        Union算子 会进行合并, 不会进行重复判断
        Union算子 必须进行 同类型元素的合并, 哪怕是顶级类Object也不行, 必须是实体类(撇除继承关系)的类型一致才可以
         */
    }
}

在这里插入图片描述

Connect

DataStream,DataStream → ConnectedStreams:连接两个保持他们类型的数据流,两个数据流被 Connect 之后,只是被放在了一个同一个流中,内部依然保持各自的数据和形式不发生任何变化,两个流相互独立, 作为对比,Union后是真的变成一个流了。

示例
读取两个不同类型的数据源,使用connect进行合并打印。
在这里插入图片描述
开发步骤

  • 创建流式处理环境
  • 添加两个自定义数据源
  • 使用connect合并两个数据流,创建ConnectedStreams对象
  • 遍历ConnectedStreams对象,转换为DataStream
  • 打印输出,设置并行度为1
  • 执行任务
package batch.transformation;

import org.apache.flink.streaming.api.datastream.ConnectedStreams;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.co.CoMapFunction;
import org.apache.flink.streaming.api.functions.source.SourceFunction;

import java.util.Random;

/**
 * @author lwh
 * @date 2023/4/25
 * @description connect连接2个流,流类型可以不一致
 **/
public class ConnectDemo {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        DataStreamSource<Integer> source1 = env.addSource(new IncreaseByOneSource());
        DataStreamSource<Integer> source2 = env.addSource(new IncreaseByOneSource());

        ConnectedStreams<Integer, Integer> connectedStreams = source1.connect(source2);

        /*
            针对connect后的Stream, 所有方法都会传入特殊的处理, 比如:
            map方法需要实现CoMapFunction 而非我们前面用的MapFunction
            这一类特殊的处理, 比如CoMapFunction, 内就有两个map方法
            1个处理连接的第一个Stream
            另一个处理连接的另一个Stream
         */
        // CoMapFunction的3个泛型: 泛型1: 第一个Stream的输入类型 泛型2: 第二个Stream的输入类型 泛型3: 返回的类型(要求两个map方法的返回值类型一致)
        SingleOutputStreamOperator<String> map = connectedStreams.map(new CoMapFunction<Integer, Integer, String>() {
            @Override
            public String map1(Integer value) throws Exception {
                return "map1:" + value;
            }

            // map1和map2的返回值类型需要一致, 因为类的第三个泛型约束着
            @Override
            public String map2(Integer value) throws Exception {
                return "map2:" + value;
            }
        });
        map.print("》》》》》》");
        System.out.println();
        env.execute();
    }

    static class IncreaseByOneSource implements SourceFunction<Integer> {
        private boolean isRun = true;       // Flag for run
        private final Random random = new Random();

        @Override
        public void run(SourceContext<Integer> ctx) throws Exception {
            while (isRun) {
                ctx.collect(random.nextInt(999));
                Thread.sleep(1000L);
            }
        }

        @Override
        public void cancel() {
            this.isRun = false;
        }

    }
}

在这里插入图片描述

Split和select

在这里插入图片描述
Split就是将一个DataStream分成两个或者多个DataStream
Select就是获取分流后对应的数据
简单认为就是, Split会给数据打上标记
然后通过Select, 选择标记来划分出不同的Stream
效果类似KeyBy分流,但是比KeyBy更自由些,可以自由打标记并进行分流。

在这里插入图片描述

示例
加载本地集合(1,2,3,4,5,6), 使用split进行数据分流,分为奇数和偶数. 并打印奇数结果

开发步骤

  • 创建流处理环境
  • 设置并行度
  • 加载本地集合
  • 数据分流,分为奇数和偶数
  • 获取分流后的数据
  • 打印数据
  • 执行任务
package batch.transformation;

import org.apache.flink.streaming.api.collector.selector.OutputSelector;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SplitStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

import java.util.ArrayList;

/**
 * @author lwh
 * @date 2023/4/25
 * @description 使用split分流打标记,select在根据标记获取分流后的数据
 **/
public class SplitSelectDemo {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        DataStreamSource<Integer> source = env.fromElements(1, 2, 3, 4, 5, 6);

        // 通过Split + Select的组合, 区分出偶数和奇数
        // SplitStream被标记为弃用了, 但是源码中没有相关解释, 可能以后的新版本会有对应的替代对象, 目前先继续使用
        SplitStream<Integer> splitedStream = source.split(new OutputSelector<Integer>() {

            // 可以看出返回值是Iterable<String> 也就是泛型是String的可迭代集合
            // 意思就是将字符串标记放入可迭代集合中返回即可
            @Override
            public Iterable<String> select(Integer value) {
                ArrayList<String> flagList = new ArrayList<>();
                if (value % 2 == 0) {
                    flagList.add("even");        // 偶数标记为even
                } else {
                    flagList.add("odd");        // 奇数标记为odd
                    flagList.add("jishu");      // 标记可以打多个, 比如奇数就打了两个标记
                }
                return flagList;    // 可以看出, 返回的是flag, 和value没关系
                // 这个方法就是纯用来打标记的, 对value不做处理
            }
        });

        // 偶数DataStream
        DataStream<Integer> evenStream = splitedStream.select("even");
        // 通过Select取得奇数DataStream
        DataStream<Integer> oddStream = splitedStream.select("odd");
        // 通过奇数的另一个标记取得奇数内容
        DataStream<Integer> odd2Stream = splitedStream.select("jishu");
        // 如果select的内容不存在
        DataStream<Integer> hahaha = splitedStream.select("hahaha");

        evenStream.print("even>>>");

        oddStream.print("odd>>>");
        odd2Stream.print("odd2>>>");

        // hahaha标记不存在, 所以无法得到内容, 这个DataStream是空的
        hahaha.print("hahaha>>>");

        env.execute();

    }
}

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

技术武器库

一句真诚的谢谢,胜过千言万语

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值