![](https://img-blog.csdnimg.cn/direct/b8789845683a48898b800b8e9f29684a.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
Flink专栏
文章平均质量分 97
介绍flink相关内容
一瓢一瓢的饮 alanchanchn
2023博客之星12
本科毕业于西安电子科技大学
硕士毕业于华东理工大学
长期从事软件、管理相关工作,擅长管理、一般应用系统开发、大数据开发,常见的框架、组件较为了解。
展开
-
60、Flink CDC 入门介绍及Streaming ELT示例(同步Mysql数据库数据到Elasticsearch)-完整版
本文介绍的CDC是基于2.4版本,当前版本已经发布至3.0,本Flink 专栏介绍是基于Flink 1.17版本,CDC 2.4版本支持到1.17版本。Apache Flink®的CDC连接器是用于Apache Flnk®的一组源连接器,使用更改数据捕获(CDC)接收来自不同数据库的更改。Apache Flink®的CDC连接器将Debezium集成为捕获数据更改的引擎。因此,它可以充分利用Debezium的能力。了解更多关于Debezium的信息。原创 2024-01-29 10:00:00 · 30334 阅读 · 5 评论 -
60、Flink CDC 入门介绍及Streaming ELT示例(同步Mysql数据库数据到Elasticsearch)-Streaming ELT介绍及示例(2)
CDC流式ELT框架是一个流数据集成框架,旨在为用户提供更强大的API。它允许用户通过自定义的Flink操作符和作业提交工具来配置他们的数据同步逻辑。该框架优先优化任务提交过程,并提供增强的功能,如整个数据库同步、分片和模式更改同步。✅端到端数据集成框架✅ API,用于数据集成用户轻松构建作业✅ 源/接收器中的多表支持✅ 同步整个数据库✅ 模式进化能力。原创 2024-01-27 16:00:00 · 30028 阅读 · 2 评论 -
60、Flink CDC 入门介绍及Streaming ELT示例(同步Mysql数据库数据到Elasticsearch)-CDC Connector介绍及示例 (1)
本文介绍的CDC是基于2.4版本,当前版本已经发布至3.0,本Flink 专栏介绍是基于Flink 1.17版本,CDC 2.4版本支持到1.17版本。Apache Flink®的CDC连接器是用于Apache Flnk®的一组源连接器,使用更改数据捕获(CDC)接收来自不同数据库的更改。Apache Flink®的CDC连接器将Debezium集成为捕获数据更改的引擎。因此,它可以充分利用Debezium的能力。了解更多关于Debezium的信息。原创 2024-01-27 10:30:00 · 29385 阅读 · 0 评论 -
37、Flink 的CDC 格式:debezium部署以及mysql示例(完整版)
Debezium是一个 CDC(Changelog Data Capture,变更数据捕获)的工具,可以把来自 MySQL、PostgreSQL、Oracle、Microsoft SQL Server 和许多其他数据库的更改实时流式传输到 Kafka 中。Debezium 为变更日志提供了统一的格式结构,并支持使用 JSON 和 Apache Avro 序列化消息。原创 2024-01-26 14:15:00 · 30896 阅读 · 0 评论 -
37、Flink 的CDC 格式:debezium部署以及mysql示例(2)-Flink 与Debezium 实践
系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink 部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。3、Flik Table API和SQL基础系列本部分介绍Flink Table Api和SQL的基本用法,比如Table API和SQL创建库、表用法、查询、窗口函数、catalog等等内容。原创 2024-01-26 09:45:00 · 29583 阅读 · 0 评论 -
37、Flink 的CDC 格式:debezium部署以及mysql示例(1)-debezium的部署与示例
Debezium是一个 CDC(Changelog Data Capture,变更数据捕获)的工具,可以把来自 MySQL、PostgreSQL、Oracle、Microsoft SQL Server 和许多其他数据库的更改实时流式传输到 Kafka 中。Debezium 为变更日志提供了统一的格式结构,并支持使用 JSON 和 Apache Avro 序列化消息。原创 2024-01-25 14:51:05 · 30355 阅读 · 0 评论 -
39、Flink 的CDC 格式:maxwell部署以及示例
Maxwell是一个CDC(Changelog Data Capture)工具,可以将MySQL中的数据变化实时流式传输到Kafka、Kinesis和其他流式连接器中。Maxwell为变更日志提供了统一的格式模式,并支持使用JSON序列化消息。Flink支持将Maxwell JSON消息解释为INSERT/UPDATE/DELETE Flink SQL系统中的消息。在许多情况下,这对于利用此功能非常有用,例如将增量数据从数据库同步到其他系统审核日志数据库上的实时物化视图。原创 2024-01-25 09:45:00 · 29459 阅读 · 0 评论 -
59、Flink CEP - Flink的复杂事件处理介绍及示例(完整版)
一、Flink 专栏Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink 部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。3、Flik Table API和SQL基础系列本部分介绍Flink Table Api和SQL的基本用法,比如Table API和SQL创建库、表用法、查询、窗口函数、catalog等等内容。4、Flik原创 2024-01-24 14:30:00 · 30171 阅读 · 0 评论 -
59、Flink CEP - Flink的复杂事件处理介绍及示例(4)- 延迟数据处理和三个实际应用示例
一、Flink 专栏Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink 部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。3、Flik Table API和SQL基础系列本部分介绍Flink Table Api和SQL的基本用法,比如Table API和SQL创建库、表用法、查询、窗口函数、catalog等等内容。4、Flik原创 2024-01-24 09:45:00 · 29650 阅读 · 0 评论 -
59、Flink CEP - Flink的复杂事件处理介绍及示例(3)- 模式选取及超时处理
Flink 系列文章一、Flink 专栏Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink 部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。3、Flik Table API和SQL基础系列本部分介绍Flink Table Api和SQL的基本用法,比如Table API和SQL创建库、表用法、查询、窗口原创 2024-01-23 14:30:00 · 29769 阅读 · 0 评论 -
59、Flink CEP - Flink的复杂事件处理介绍及示例(2)- 模式API
一、Flink 专栏Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink 部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。3、Flik Table API和SQL基础系列本部分介绍Flink Table Api和SQL的基本用法,比如Table API和SQL创建库、表用法、查询、窗口函数、catalog等等内容。4、Flik原创 2024-01-23 09:45:00 · 29632 阅读 · 0 评论 -
38、Flink 的CDC 格式:canal部署以及示例
Canal是一个 CDC(ChangeLog Data Capture,变更日志数据捕获)工具,可以实时地将 MySQL 变更传输到其他系统。Canal 为变更日志提供了统一的数据格式,并支持使用 JSON 或protobuf序列化消息(Canal 默认使用 protobuf)。Flink 支持将 Canal 的 JSON 消息解析为 INSERT / UPDATE / DELETE 消息到 Flink SQL 系统中。在很多情况下,利用这个特性非常的有用。例如将增量数据从数据库同步到其他系统。原创 2024-01-22 14:27:44 · 29375 阅读 · 0 评论 -
59、Flink CEP - Flink的复杂事件处理介绍及示例(1)-入门
Flink CEP(Complex event processing)是在Flink上层实现的复杂事件处理库。它可以让你在无限事件流中检测出特定的事件模型,有机会掌握数据中重要的那部分。实时处理中的一个关键问题是检测数据流中的事件模式。复杂事件处理(CEP)解决了将连续传入的事件与模式进行匹配的问题。匹配的结果通常是从输入事件派生的复杂事件。与对存储的数据执行查询的传统DBMS不同,CEP对存储的查询执行数据。所有与查询无关的数据都可以立即丢弃。原创 2024-01-22 14:15:00 · 29818 阅读 · 0 评论 -
58、Flink维表的实战-6种实现方式维表的join
一、Flink 专栏Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink 部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。3、Flik Table API和SQL基础系列本部分介绍Flink Table Api和SQL的基本用法,比如Table API和SQL创建库、表用法、查询、窗口函数、catalog等等内容。4、Flik原创 2024-01-11 14:15:00 · 31227 阅读 · 0 评论 -
56、Flink 的Data Source 原理介绍
一些比较基本的 Source 和 Sink 已经内置在 Flink 里。预定义 data sources 支持从文件、目录、socket,以及 collections 和 iterators 中读取数据。预定义 data sinks 支持把数据写入文件、标准输出(stdout)、标准错误输出(stderr)和 socket。原创 2024-01-09 14:00:00 · 30746 阅读 · 0 评论 -
53、Flink 的Broadcast State 模式介绍及示例
https://nightlies.apache.org/flink/flink-docs-release-1.17/zh/docs/dev/datastream/fault-tolerance/broadcast_state/一、Flink 专栏Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink 部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用原创 2024-01-06 15:30:00 · 31722 阅读 · 0 评论 -
52、Flink的应用程序参数处理-ParameterTool介绍及使用示例
系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink 部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。3、Flik Table API和SQL基础系列本部分介绍Flink Table Api和SQL的基本用法,比如Table API和SQL创建库、表用法、查询、窗口函数、catalog等等内容。原创 2024-01-06 10:30:13 · 30896 阅读 · 0 评论 -
51、Flink的管理执行(执行配置、程序打包和并行执行)的介绍及示例
调用打包后程序的完整流程包括两步:搜索 JAR 文件 manifest 中的 main-class 或 program-class 属性。如果两个属性同时存在,program-class 属性会优先于 main-class 属性。对于 JAR manifest 中两个属性都不存在的情况,命令行和 web 界面支持手动传入入口点类名参数。系统接着调用该类的 main 方法。原创 2024-01-05 13:35:38 · 31158 阅读 · 0 评论 -
50、Flink的单元测试介绍及示例
一、Flink 专栏Flink 专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink 部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink 的基础部分,比如术语、架构、编程模型、编程指南、基本的datastream api用法、四大基石等内容。3、Flik Table API和SQL基础系列本部分介绍Flink Table Api和SQL的基本用法,比如Table API和SQL创建库、表用法、查询、窗口函数、catalog等等内容。4、Flik原创 2024-01-05 09:29:49 · 31347 阅读 · 0 评论 -
49、Flink的Java Lambda 表达式写法示例
1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、Flink 的table api与sql的基本概念、通用api介绍及入门示例14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性15、Flink 的table api与sql之流式概念-详解的介绍了动态表、时间属性配置(如何处理更新结果)、时态表、流上的join、流上的确定性以及查询配置16、Flink 的table api与sql之原创 2023-12-01 09:47:08 · 30848 阅读 · 0 评论 -
48、Flink DataStream API 编程指南(2)- DataStream的source、transformation、sink、调试
addSource - 关联一个新的 source function。例如,你可以使用 addSource(new FlinkKafkaConsumer(…)) 来从 Apache Kafka 获取数据。其中的maven依赖参考本专栏的相关文章kafka该示例是基于flink1.13.5的版本/**/**// source // 准备kafka连接参数 Properties props = new Properties();原创 2023-12-01 09:46:10 · 30816 阅读 · 0 评论 -
48、Flink DataStream API 编程指南- 完整版
addSource - 关联一个新的 source function。例如,你可以使用 addSource(new FlinkKafkaConsumer(…)) 来从 Apache Kafka 获取数据。其中的maven依赖参考本专栏的相关文章kafka该示例是基于flink1.13.5的版本/**/**// source // 准备kafka连接参数 Properties props = new Properties();原创 2023-11-30 08:15:16 · 31527 阅读 · 0 评论 -
47、Flink 的指标报告介绍(graphite、influxdb、prometheus、statsd和datalog)及示例(jmx和slf4j示例)
Flink 支持用户将 Flink 的各项运行时指标发送给外部系统。了解更多指标方面信息可查看45、Flink 的指标体系介绍及验证(3)- 完整版。你可以通过 conf/flink-conf.yaml 文件来配置一种或多种发送器,将运行时指标暴露给外部系统。发送器会在 TaskManager、Flink 作业启动时进行实例化。下面列出了所有发送器都适用的参数,可以通过配置文件中的 metrics.reporter.. 项进行配置。原创 2023-11-30 08:13:44 · 30959 阅读 · 0 评论 -
48、Flink DataStream API 编程指南(1)- DataStream 入门示例
通常,只需要使用 getExecutionEnvironment() 即可,因为该方法会根据上下文做正确的处理:如果你在 IDE 中执行你的程序或将其作为一般的 Java 程序执行,那么它将创建一个本地环境,该环境将在你的本地机器上执行你的程序。如果你基于程序创建了一个 JAR 文件,并通过命令行运行它,Flink 集群管理器将执行程序的 main 方法,同时 getExecutionEnvironment() 方法会返回一个执行环境以在集群上执行你的程序。原创 2023-11-29 14:50:56 · 31170 阅读 · 0 评论 -
45、Flink 的指标体系介绍及验证(3)- 完整版
1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、Flink 的table api与sql的基本概念、通用api介绍及入门示例14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性15、Flink 的table api与sql之流式概念-详解的介绍了动态表、时间属性配置(如何处理更新结果)、时态表、流上的join、流上的确定性以及查询配置16、Flink 的table api与sql之原创 2023-11-29 14:34:44 · 31457 阅读 · 0 评论 -
45、Flink 的指标体系介绍及验证(2)-指标的scope、报告、系统指标以及追踪、api集成示例和dashboard集成
启用跟踪keyed state访问延迟后,Flink将对每N次访问的状态访问延迟进行采样,其中N由state.backend.latency-track.sample-interval定义。由于此延迟度量的类型为直方图,state.backend.latency-track.history-size将控制历史记录值的最大数量,默认值为128。此配置的较大值将需要更多的内存,但将提供更准确的结果。例如,如果A.B是系统作用域,C.D是用户作用域,E是名称,那么度量的标识符将是A.B.C.D.E。原创 2023-11-29 14:33:54 · 31089 阅读 · 0 评论 -
45、Flink 的指标体系介绍及验证(1)-指标类型及指标实现示例
1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、Flink 的table api与sql的基本概念、通用api介绍及入门示例14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性15、Flink 的table api与sql之流式概念-详解的介绍了动态表、时间属性配置(如何处理更新结果)、时态表、流上的join、流上的确定性以及查询配置16、Flink 的table api与sql之原创 2023-11-24 10:17:40 · 32120 阅读 · 0 评论 -
23、Flink 的table api与sql之流式聚合(性能调优)
除此之外,Flink 还支持拆分更复杂的聚合查询,例如,多个具有不同 distinct key (例如 COUNT(DISTINCT a), SUM(DISTINCT b) )的 distinct 聚合,可以与其他非 distinct 聚合(例如 SUM、MAX、MIN、COUNT )一起使用。Local-Global 聚合是为解决数据倾斜问题提出的,通过将一组聚合分为两个阶段,首先在上游进行本地聚合,然后在下游进行全局聚合,类似于 MapReduce 中的 Combine + Reduce 模式。原创 2023-11-24 10:17:03 · 31368 阅读 · 0 评论 -
46、Flink 的table api与sql之配项列表及示例
以上,本文简单介绍了table和SQL API在执行、优化器、planner和sql client几方面的配置属性以及以java代码示例性的演示属性的配置方式。本文简单介绍了table和SQL API在执行、优化器、planner和sql client几方面的配置属性以及以java代码示例性的演示属性的配置方式。有些优化属性是流批都可以用的,有些用于流式,有些用于批处理。有些配置属性是流批都可以用的,有些用于流式,有些用于批处理。有些配置属性是流批都可以用的,有些用于流式,有些用于批处理。原创 2023-11-24 10:16:30 · 31239 阅读 · 0 评论 -
40、Flink 的Apache Kafka connector(kafka source 和sink 说明及使用示例) 完整版
1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、Flink 的table api与sql的基本概念、通用api介绍及入门示例14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性15、Flink 的table api与sql之流式概念-详解的介绍了动态表、时间属性配置(如何处理更新结果)、时态表、流上的join、流上的确定性以及查询配置16、Flink 的table api与sql之原创 2023-11-23 08:17:47 · 33328 阅读 · 0 评论 -
40、Flink 的Apache Kafka connector(kafka sink的介绍及使用示例)-2
1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、Flink 的table api与sql的基本概念、通用api介绍及入门示例14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性15、Flink 的table api与sql之流式概念-详解的介绍了动态表、时间属性配置(如何处理更新结果)、时态表、流上的join、流上的确定性以及查询配置16、Flink 的table api与sql之原创 2023-11-23 08:16:43 · 31640 阅读 · 0 评论 -
40、Flink 的Apache Kafka connector(kafka source的介绍及使用示例)-1
1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、Flink 的table api与sql的基本概念、通用api介绍及入门示例14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性15、Flink 的table api与sql之流式概念-详解的介绍了动态表、时间属性配置(如何处理更新结果)、时态表、流上的join、流上的确定性以及查询配置16、Flink 的table api与sql之原创 2023-11-22 08:19:30 · 31684 阅读 · 0 评论 -
31、Flink的SQL Gateway介绍及示例
SQL Gateway 是一种使远程多个客户端能够并发执行SQL的服务。它提供了一种提交Flink Job、查找元数据和在线分析数据的简单方法。SQL Gateway 由可插入endpoints 和SqlGatewayService组成。SqlGatewayService是一个由endpoints 重用以处理请求的处理器。endpoints 是允许用户进行连接的入口点。根据endpoints 的类型,用户可以使用不同的utils进行连接。参考上文中的查询示例。原创 2023-11-22 08:18:20 · 31985 阅读 · 0 评论 -
35、Flink 的 Formats 之CSV 和 JSON Format
以上,介绍了Flink 支持的数据格式中的csv和json,并分别以sql和table api作为示例进行了说明。本文介绍了Flink 支持的数据格式中的csv和json,并分别以sql和table api作为示例进行了说明。本文的示例是在Flink 1.17版本(flink 集群和maven均是Flink 1.17)中运行。参考上文中关于CSV Format的table api 建表示例,变化的是json的格式参数。下表列出了 Flink 中的数据类型与 JSON 中的数据类型的映射关系。原创 2023-11-16 14:17:41 · 31272 阅读 · 0 评论 -
36、Flink 的 Formats 之Parquet 和 Orc Format
1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、Flink 的table api与sql的基本概念、通用api介绍及入门示例14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性15、Flink 的table api与sql之流式概念-详解的介绍了动态表、时间属性配置(如何处理更新结果)、时态表、流上的join、流上的确定性以及查询配置16、Flink 的table api与sql之原创 2023-11-16 14:16:35 · 31854 阅读 · 0 评论 -
21、Flink 的table API与DataStream API 集成(完整版)
1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、Flink 的table api与sql的基本概念、通用api介绍及入门示例14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性15、Flink 的table api与sql之流式概念-详解的介绍了动态表、时间属性配置(如何处理更新结果)、时态表、流上的join、流上的确定性以及查询配置16、Flink 的table api与sql之原创 2023-11-15 08:19:30 · 32493 阅读 · 0 评论 -
21、Flink 的table API与DataStream API 集成(3)- changelog流处理、管道示例、类型转换和老版本转换示例
1、Flink 部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、Flink 的table api与sql的基本概念、通用api介绍及入门示例14、Flink 的table api与sql之数据类型: 内置数据类型以及它们的属性15、Flink 的table api与sql之流式概念-详解的介绍了动态表、时间属性配置(如何处理更新结果)、时态表、流上的join、流上的确定性以及查询配置16、Flink 的table api与sql之原创 2023-11-15 08:18:35 · 31255 阅读 · 0 评论 -
21、Flink 的table API与DataStream API 集成(2)- 批处理模式和inser-only流处理
一般来说,有界性是数据源的一个属性,它告诉我们来自该源的所有记录在执行之前是否已知,或者新数据是否会显示,可能是无限期的。以上,本文是Flink table api 与 datastream api的集成的第二篇,主要批处理模式下的集成和insert-only处理,并以具体的示例进行说明。本文是Flink table api 与 datastream api的集成的第二篇,主要批处理模式下的集成和insert-only处理,并以具体的示例进行说明。每个示例中的运行结果均在输出部分以注释展示。原创 2023-11-14 17:28:07 · 31776 阅读 · 0 评论 -
21、Flink 的table API与DataStream API 集成(1)- 介绍及入门示例、集成说明
在定义数据处理管道时,Table API和DataStream API同样重要。DataStream API在一个相对低级的命令式编程API中提供流处理的原语(即时间、状态和数据流管理)。Table API抽象了许多内部构件,并提供了结构化和声明性API。这两个API都可以处理有界和无界流。在处理历史数据时,需要管理有界流。无界流发生在实时处理场景中,这些场景可能先使用历史数据进行初始化。为了有效执行,这两个API都以优化的批处理执行模式提供处理有界流。原创 2023-11-14 17:27:04 · 31781 阅读 · 0 评论 -
33、Flink 的Table API 和 SQL 中的时区
在 Los_angele 时区下, tumble window [2021-03-14 00:00:00, 2021-03-14 00:04:00] 将会收集3个小时的数据, 在其他非夏令时的时区下将会收集4个小时的数据,用户只需要在 TIMESTAMP_LTZ 列上声明时间属性即可。相比在 UTC 时区下的计算结果, 在 Asia/Shanghai 时区下计算的窗口开始时间, 窗口结束时间和窗口的 rowtime 是不同的。处理时间窗口是不确定的, 每次运行都会返回不同的窗口和聚合结果。原创 2023-11-13 09:30:42 · 32001 阅读 · 0 评论