Flink流式计算介绍之Transformer

0 准备

准备测试数据:
sensor_1,1624006065247,43.92789292115926
sensor_2,1624006065247,97.45845640790921
sensor_3,1624006065247,41.35949935067326
sensor_4,1624006065247,86.68115422056633
sensor_5,1624006065247,52.53673229860578
sensor_6,1624006065247,56.6603508147016
sensor_7,1624006065247,80.31827896634314
sensor_8,1624006065247,85.2968397027334
sensor_9,1624006065247,67.08038287401958
sensor_10,1624006065247,58.008757044788
sensor_1,1624006065353,43.49476762604196
// 定义样例类,传感器id,时间戳,温度

case class SensorReading(id: String, timestamp: Long, temperature: Double)

1 split分流

分流demo

import org.apache.flink.streaming.api.scala._
object transformerSensor {

  def main(args: Array[String]): Unit = {

    val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
    val dataStream: DataStream[String] = env.readTextFile("E:\\bigdata\\Flink2\\src\\main\\resources\\sensor.txt")
    val dStreamSensor: DataStream[SensorReading] = dataStream.map(
      line => {
        val splits = line.split(",")
        SensorReading(splits(0), splits(1).toLong, splits(2).toDouble)
      }
    )

    //分流
    val splitDStream: SplitStream[SensorReading] = dStreamSensor.split(sensorData => {
      if (sensorData.temperature < 50) Seq("low") else Seq("high")
    })

    //取出对应的流
    val lowDStream: DataStream[SensorReading] = splitDStream.select("low")
    val highDStream: DataStream[SensorReading] = splitDStream.select("high")
    val allDStream: DataStream[SensorReading] = splitDStream.select("low","high")

    lowDStream.print().setParallelism(1)
    env.execute("transformer lowDStream test ")

可以看到将数据流分为温度大于50的high流和低于50的low流,以及high和low组成的整个数据流。输出low流结果,只有低于50度的数据才会显示
在这里插入图片描述

2 合流操作

2.1 connect合流

//合流
val mapLowDStream: DataStream[(String, Double, String)] = lowDStream.map(x => (x.id, x.temperature, "Normal"))
val maphighLowDStream: DataStream[(String, Double, String)] = highDStream.map(x => (x.id, x.temperature, "Warning"))

val coDStream: ConnectedStreams[(String, Double, String), (String, Double, String)] = mapLowDStream.connect(maphighLowDStream)

val result: DataStream[(String, Double, String)] = coDStream.map(
  lowData => (lowData._1, lowData._2, "healthy"),
  warningData => (warningData._1, warningData._2, "warning")

)

result.print().setParallelism(1)
env.execute("transformer connect test")

在这里插入图片描述

2.2 union合流

val unionDStream: DataStream[(String, Double, String)] = mapLowDStream.union(maphighLowDStream)
unionDStream.print().setParallelism(1)
env.execute("transformer union test")

在这里插入图片描述

2.3 两者区别

1. Union之前两个流的类型必须是一样,Connect可以不一样,在之后的coMap中再去调整成为一样的。
2. Connect只能操作两个流,Union可以操作多个。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Flink 是一个流式处理框架,可用于构建和运行高性能、可靠且可伸缩的流式应用程序。它提供了一种以事件时间处理数据的方式,支持低延迟和高吞吐量的处理能力。 Flink流式处理模型基于无界数据流,在输入数据不断到达的过程中进行实时计算和处理。它能够处理无限量的数据,并且能够以低延迟的方式对数据进行处理。 Flink 通过流处理 API 和数据流图的概念来描述流式处理应用程序。数据流图是由一个或多个算子组成的有向无环图,通过这些算子对数据进行转换和处理。数据以事件的形式进行处理,每个事件都会被传递给相应的算子,然后根据指定的逻辑进行处理,最终输出结果。 Flink 提供了丰富的算子库,包括各种转换、聚合和窗口操作,以满足不同场景下的需求。它还支持事件时间处理,可以处理乱序的事件,并根据事件时间进行窗口操作,保证数据处理的准确性。 除了流处理,Flink 还支持批处理,可以将批处理和流处理无缝集成在一个应用程序中。这使得开发人员可以在同一个框架下进行各种类型的数据处理,极大地简化了应用程序的开发和维护。 总之,Flink 是一个功能强大而灵活的流式处理框架,能够满足各种实时数据处理的需求,并且具有良好的可扩展性和容错性。它是构建实时大数据应用程序的理想选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值