有状态转化操作需要在你的StreamingContext中打开检查点机制来确定容错性,只需要传递一个目录作为参数给ssc.checkpoint()即可
1、滑动窗口:
上面的窗口时间是3,滑动时间是2;表示每隔2个批次就对前3个批次的数据进行一次计算
例子:
Val ssc = new StreamingContext(sc,Seconds(2)) --> Batch是Seconds(2)
Val dstream = ssc.window(Seconds(3)) ->滑动时间默认与批次间隔相等
Dstream.count
假如说我如果将批次间隔设置成10s,并且我们只希望每隔2个批次计算一次窗口的时间,那么就应当将滑动时间设置成20s。
尽管可以通过window写出所有的窗口操作,sparkStreaming还是提供了:
ReduceByWindow
reduceByKeyAndWindow
countByWindow
countByValueAndWindow
2、UpdateStateByKey:将DStream中的数据进行按key做reduce操作,然后对各个批次的数据进行累加(前提是调用一个函数)