Time
在Flink的流式处理中,会涉及到时间的不同概念,如下图所示:
Event Time
:是事件创建的时间。它通常由事件中的时间戳描述,例如采集的日志数据中,每一条日志都会记录自己的生成时间,Flink
通过时间戳分配器
访问事件时间戳。
Ingestion Time
:是数据进入Flink
的时间。
Processing Time
:是每一个执行基于时间操作的算子的本地系统时间,与机器相关,默认的时间属性就是Processing Time
。
一个例子——电影《星球大战》:
例如,一条日志进入Flink
的时间为2017-11-12 10:00:00.123
,到达Window
的系统时间为2017-11-12 10:00:01.234
,日志的内容如下:
2017-11-02 18:37:15.624 INFO Fail over to rm2
对于业务来说,要统计1min内的故障日志个数,哪个时间是最有意义的?—— eventTime
,因为我们要根据日志的生成时间进行统计。
Window
Window概述
streaming流式计算
是一种被设计用于处理无限数据集的数据处理引擎,而无限数据集是指一种不断增长的本质上无限的数据集,而window
是一种切割无限数据为有限块进行处理的手段。
Window
是无限数据流处理的核心,Window
将一个无限的stream拆分成有限大小的”buckets
”桶,我们可以在这些桶上做计算操作。
Window类型
Window
可以分成两类:
CountWindow
:按照指定的数据条数生成一个Window
,与时间无关。
TimeWindow
:按照时间生成Window
。
对于TimeWindow
,可以根据窗口实现原理的不同分成三类:滚动窗口(Tumbling Window
)、滑动窗口(Sliding Window
)和会话窗口(Session Window
)。
1. 滚动窗口(Tumbling Windows)
将数据依据固定的窗口长度
对数据进行切片。
特点:时间对齐,窗口长度固定,没有重叠。
滚动窗口分配器将每个元素分配到一个指定窗口大小的窗口中,滚动窗口有一个固定的大小,并且不会出现重叠。例如:如果你指定了一个5分钟大小的滚动窗口,窗口的创建如下图所示:
适用场景:适合做BI统计
等(做每个时间段的聚合计算)。
2. 滑动窗口(Sliding Windows)
滑动窗口是固定窗口的更广义的一种形式,滑动窗口
由固定的窗口长度
和滑动间隔
组成。
特点:时间对齐,窗口长度固定,有重叠。
滑动窗口分配器将元素分配到固定长度的窗口中,与滚动窗口类似,窗口的大小由窗口大小参数来配置,另一个窗口滑动参数控制滑动窗口开始的频率。因此,滑动窗口如果滑动参数小于窗口大小的话,窗口是可以重叠的,在这种情况下元素会被分配到多个窗口中。
例如,你有10分钟的窗口和5分钟的滑动,那么每个窗口中5分钟的窗口里包含着上个10分钟产生的数据,如下图所示:
适用场景:对最近一个时间段内的统计
(求某接口最近5min的失败率来决定是否要报警)。
3. 会话窗口(Session Windows)
由一系列事件
组合一个指定时间长度的timeout
间隙组成,类似于web应用的session
,也就是一段时间没有接收到新数据就会生成新的窗口。
特点:时间无对齐。
session窗口
分配器通过session
活动来对元素进行分组,session窗口跟滚动窗口和滑动窗口相比,不会有重叠和固定的开始时间和结束时间的情况,相反,当它在一个固定的时间周期内不再收到元素,即非活动间隔产生,那个这个窗口就会关闭。一个session
窗口通过一个session间隔
来配置,这个session间隔定义了非活跃周期的长度,当这个非活跃周期产生,那么当前的session将关闭并且后续的元素将被分配到新的session窗口中去。
Window API
TimeWindow
TimeWindow
是将指定时间范围内的所有数据组成一个window
,一次对一个window
里面的所有数据进行计算。
1. 滚动窗口
Flink
默认的时间窗口根据Processing Time
进行窗口的划分,将Flink
获取到的数据根据进入Flink
的时间划分到不同的窗口中。
时间间隔可以通过Time.milliseconds(x)
,Time.seconds(x)
,Time.minutes(x)
等其中的一个来指定。
案例
import org.apache.flink.streaming.api.scala.{DataStream, StreamExecutionEnvironment}
import org.apache.flink.streaming.api.windowing.time.Time
object StreamWordCount {
def main(args: Array[String]): Unit = {
val host = "192.168.xx.1x1"
val port = 9000
// 创建流处理环境
val env = StreamExecutionEnvironment.getExecutionEnvironment
// 接收socket文本流
val textDstream: DataStream[String] = env.socketTextStream(host, port)
// flatMap和Map需要引用的隐式转换
import org.apache.flink.api.scala._
val value: DataStream[(String, Int)] = textDstream.flatMap(_.split("\\s"))
.filter((_.nonEmpty))
.map((_, 1))
.keyBy(0)
//设置滚动窗口大小
.timeWindow(Time.seconds(15))
.sum(1)
value.print().setParallelism(1)
env.execute("Socket WordCountTest")
}
}
2. 滑动窗口(SlidingEventTimeWindows)
滑动窗口
和滚动窗口
的函数名是完全一致的,只是在传参数时需要传入两个参数,一个是window_size
,一个是sliding_size
。
下面代码中的sliding_size
设置为了5s
,也就是说,窗口每5s
就计算一次,每一次计算的window
范围是15s
内的所有元素。
val value: DataStream[(String, Int)] = textDstream.flatMap(_.split("\\s"))
.filter((_.nonEmpty))
.map((_, 1))
.keyBy(0)
.timeWindow(Time.seconds(15),Time.seconds(5))
.sum(1)
CountWindow
CountWindow
根据窗口中相同key
元素的数量来触发执行,执行时只计算元素数量达到窗口大小的key
对应的结果。
注意:CountWindow
的window_size
指的是相同Key
的元素的个数,不是输入的所有元素的总数。
1 滚动窗口
默认的CountWindow
是一个滚动窗口,只需要指定窗口大小即可,当元素数量达到窗口大小时,就会触发窗口的执行。
val value: DataStream[(String, Int)] = textDstream.flatMap(_.split("\\s"))
.filter((_.nonEmpty))
.map((_, 1))
.keyBy(0)
.countWindow(5)
.sum(1)
2 滑动窗口
滑动窗口
和滚动窗口
的函数名是完全一致的,只是在传参数时需要传入两个参数,一个是window_size
,一个是sliding_size
。
下面代码中的sliding_size
设置为了2,也就是说,每收到两个相同key的数据就计算一次,每一次计算的window
范围是5个元素。
val value: DataStream[(String, Int)] = textDstream.flatMap(_.split("\\s"))
.filter((_.nonEmpty))
.map((_, 1))
.keyBy(0)
.countWindow(5,2)
.sum(1)
value.print().setParallelism(1)
总结
- 相比
spark
,flink
多了CountWindow
,可以依据相同key
元素的数量来触发执行,这个有什么用呢?