Kafka Stream抑制?

e134b7833bce1576ecded29e90e716c5.gif

在这篇文章中,我将解释Kafka Streams抑制的概念。尽管它看起来很容易理解,但还是有一些内在的问题/事情是必须要了解的。这是我上一篇博文CDC分析的延续。

◆架构

一个典型的CDC架构可以表示为:。

ef5a919c60a90799f18e48070aefc2ba.png

使用Kafka及其组件的CDC架构

在上述架构中。

  • 单独的表交易信息被存储在Kafka的独立主题中。这些信息可以通过Kafka的sink连接器传输到目标目的地。

  •  为了做聚合,如计数、统计、与其他流(CRM或静态内容)的连接,我们使用Kafka流。有些事情也可以用KSQL来完成,但是用KSQL实现需要额外的KSQL服务器和额外的部署来处理。相反,Kafka Streams是一种优雅的方式,它是一个独立的应用程序。

Kafka Streams应用程序可以用Java/Scala编写。

我的要求是将CDC事件流从多个表中加入,并每天创建统计。为了做到这一点,我们不得不使用Kafka Streams的抑制功能。

要理解Kafka流的压制概念,我们首先要理解聚合(Aggregation)。

◆聚合的概念

Kafka Streams Aggregation的概念与其他函数式编程(如Scala/Java Spark Streaming、Akka Streams)相当相似。这篇文章只是涵盖了其中一些重要的概念。关于详细的聚合概念,请访问confluent文档。

2c0f4e9ecf4db4158d0f00ead8abf97c.png

聚合的概念

聚合是一种有状态的转换操作,它被应用于相同键的记录。Kafka Streams支持以下聚合:聚合、计数和减少。你可以在KStream或KTable上运行groupBy(或其变体),这将分别产生一个KGroupedStream和KGroupedTable。

要在Kafka流中进行聚合,可以使用。

  • Count。用来计算元素的简单操作

  • Aggregation。
    当我们希望改变结果类型时,就会使用聚合函数。聚合函数有两个关键部分。Initializer和Aggregator。当收到第一条记录时,初始化器被调用,并作为聚合器的起点。对于随后的记录,聚合器使用当前的记录和计算的聚合(直到现在)进行计算。从概念上讲,这是一个在无限数据集上进行的有状态计算。它是有状态的,因为计算当前状态要考虑到当前状态(键值记录)和最新状态(当前聚合)。这可以用于移动平均数、总和、计数等场景。

  • Reduce。
    你可以使用Reduce来组合数值流。上面提到的聚合操作是Reduce的一种通用形式。reduce操作的结果类型不能被改变。在我们的案例中,使用窗口化操作的Reduce就足够了。

在Kafka Streams中,有不同的窗口处理方式。请参考文档。我们对1天的Tumbling时间窗口感兴趣。

注意:所有的聚合操作都会忽略空键的记录,这是显而易见的,因为这些函数集的目标就是对特定键的记录进行操作。因此,我们需要确f保我们首先对我们的事件流做selectKeyoperation。

586ebe6929715d9f77325bbb2359ea46.png

Kafka-streams-windowing

在程序中添加suppress(untilWindowClose...)告诉Kafka Streams抑制所有来自reduce操作的输出结果,直到 "窗口关闭"。" 当窗口关闭时,它的结果不能再改变,所以任何从suppress(untilWindowClose...)出来的结果都是其窗口的最终结果。

根据上述文件中的定义,我们希望每天在宽限期过后产生一个汇总的统计信息(与UTC一致)。但是,有一个注意点。在遇到相同的group-by key之前,suppress不会刷新聚合的记录!!。

在CDC事件流中,每个表都会有自己的PK,我们不能用它作为事件流的键。

为了在所有事件中使用相同的group-by key,我不得不在创建统计信息时在转换步骤中对key进行硬编码,如 "KeyValue.pair("store-key", statistic)"。然后,groupByKey()将正确地将所有的统计信息分组。

在CDC架构中,我们不能期望在宽限期后就有DB操作发生。在非高峰期/周末,可能没有数据库操作。但我们仍然需要生成聚合消息。

为了从压制中刷新聚集的记录,我不得不创建一个虚拟的DB操作(更新任何具有相同内容的表行,如update tableX set id=(select max(id) from tableX);。这个假的DB更新操作,我必须每天在宽限期后立即通过cronjob进行。也许这个cronjob可以取代ProcessorContext#schedule(), Processor#punctuate()(还没有尝试,因为我需要在这个应用程序中引入硬编码的表名)。

◆压制和重放问题

当我们重放来计算一个较长时期的汇总统计时,问题就更明显了。流媒体时间变得很奇怪,聚合窗口也过期了,我们得到以下警告。

2021-04-15 08:30:49 WARN 跳过过期窗口的记录。key=[statistics-store-msg-key] topic=[statistics-streaming-aggregates-statistics-stream-store-repartition] partition=[0] offset=[237] timestamp=[1618420920468] window=[1618358400000,1618444800000) expiration=[1618459200477] streamTime=[1618459200477]

为了防止这种过期的窗口并得到奇怪的汇总结果,我们需要将宽限期增加到相当大的数值,如下图所示。

356fbe824c10bd968646ebdde473d505.png

自动计算梯度长度

如上图所示,当我们进行重放并给出 "event-collection-start "时,我们应该自动设置 "grace duration"(足够大)。然后,kafka流将处理所有聚集的事件,没有任何过期。但最终的结果仍然不会被 "冲出 "压制窗口。我们需要通过在启动应用程序后创建一个假的更新来强行做到这一点。由于这是一个批处理程序,我们还需要 "kill $pid "来关闭(直到KIP-95完成:开放3年)。

我希望很多人像我一样在使用suppress时偶然发现了这个问题,对他们来说,这相当有用。

34620bdb9f26412e2d19498a30f59476.png

从上帝视角来看 Java 并发框架


93b5031d23ebbf9d460dd7b812ee4cf8.png

Java项目接私活脚手架(附源码)


df5aba90dd30a92496ea68d6878c92ff.png

Java并发之设计模式,设计思想


7d46a1349a81bd28b931b41e1e52acd9.png

Java 如何模拟真正的并发请求?


89780018df0c51b12fceb9bbb110332b.png

Redis配合Lua实现高并发防止秒杀超卖,实战源码解决方案


c255e5a255ecb9b5798ee0fdf0608392.png

刷Java面试题容易忽略的API


6f1a568f914e697a1c60e697e52b4a47.png

批处理框架 Spring Batch 原理讲解


c07b788189c4dd8d4d77133bf19da945.gif

回复干货】获取精选干货视频教程

回复加群】加入疑难问题攻坚交流群

回复mat】获取内存溢出问题分析详细文档教程

回复赚钱】获取用java写一个能赚钱的微信机器人

回复副业】获取程序员副业攻略一份

cb330a56bed309a005baacdb4471ffa7.png

e0b578f4a90b382251f5bde85045cb4f.gif

戳这儿

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值