flink-7 DataFrame转换算子

本文详细介绍了 Flink 中的 DataFrame 转换操作,包括 map、filter、flatMap、keyBy、Sum 和 reduce 等算子的用法。通过实例展示了如何进行数据分组、累加以及流的合并和拆分。此外,还提到了 union 和 connect 两种流合并方式以及 split 和 select 在数据流拆分中的应用。
摘要由CSDN通过智能技术生成

前言

  • 通过从一个或多个 DataStream 生成新的 DataStream 的过程被称为 Transformation 操作。
  • 在转换过程中,每种操作类型被定义为不同的 Operator
  • Flink 程序能够将多个 Transformation 组成一个 DataFlow 的拓扑

map、filter

import org.apache.flink.streaming.api.scala.{
   DataStream, StreamExecutionEnvironment}

object map_Filter {
   
  def main(args: Array[String]): Unit = {
   
    val environment: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
    import  org.apache.flink.api.scala._
    val sourceStream: DataStream[Int] = environment.fromElements(1,2,3,4,5,6)

    val mapStream: DataStream[Int] = sourceStream.map(x =>x*10)
    val resultStream: DataStream[Int] = mapStream.filter(x => x%3 ==0)
    resultStream.print()

    environment.execute()
  }

}

输出
在这里插入图片描述

flatMap

object flatMap_keyBy_sum {
   
  def main(args: Array[String]): Unit = {
   
    //获取程序入口类
    val environment: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
    //从socket当中获取数据
    val resultDataStream: DataStream[String] = environment.socketTextStream("node01",9999)
    //导入隐式转换的包
    import org.apache.flink.api.scala._
    val value: DataStream[(String, Int)] = resultDataStream .flatMap(x => x.split(" ")).map(x => (x, 1))
    value.print()
    //执行程序
    environment.execute()
  }
}

输入
在这里插入图片描述
输出

在这里插入图片描述

flatMap、keyBy、Sum

flatMap

  • 按照参数函数的规则将数据分为一个个元组

keyBy官网介绍
在这里插入图片描述

  • 根据指定key值进行分组,需要实现定义枚举类
  • 指定元组的索引进行分组,即不同的元素去往不同的组

sum

  • 将当前窗口的数据进行累加

keyBy、flatMap、Sum配合使用

import org.apache.flink
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值