Apache Flink 1.11.2 发布了。Apache Flink 是一个框架和分布式处理引擎,用于在无边界和有边界数据流上进行有状态的计算。Flink 能在所有常见集群环境中运行,并能以内存速度和任意规模进行计算。
此版本是 Apache Flink 1.11 系列的第二个 Bugfix 版本,总共包含 96 个针对 Flink 1.11.0 的修复程序以及改进。
部分更新内容:
Bug
1、使用 RebalancePartitioner 发出数据时,抛出 java.lang.ArrayIndexOutOfBoundsException
2、在取消任务期间应等待源线程的结束
3、修复 “Kerberos 身份验证设置和配置”文档中断开的链接
4、在查询表上使用udf时,初始化查询联接失败
5、Elasticsearch(v6.3.1)接收器端到端测试不稳定
6、TaskExecutorITCase.testJobReExecutionAfterTaskExecutorTermination 失败,出现DuplicateJobSubmissionException
7、更新 master 中的迁移测试,以涵盖从版本 1.11 开始的迁移
8、CustomizedConvertRule#convertCast 删除可空性
9、设置相对输出路径时 WordCount 示例失败
10、当接收器代码生成且物理类型信息为 pojo 类型时,未从输入行数据分配 RowData 的行类型
11、来自 BashJavaUtils 的错误消息被吃掉了