此记录摘自社区邮件,看到后觉得很有学习意义,顺便就整理一下并记录下来
问题描述
在flink(1.14、1.16) checkpoint(10s)提交 kafka偏移量提示 The coordinator is not available ,查看kafka集群日志都是正常的,手动也可以正确提交偏移量,重启flink job后也可以正常提交,运行一段时间后又会失败,flink 日志如下:
2023-05-04 11:31:02,636 WARN org.apache.flink.connector.kafka.source.reader.KafkaSourceReader [] - Failed to commit consumer offsets for checkpoint 69153
org.apache.kafka.clients.consumer.RetriableCommitFailedException: Offset commit failed with a retriable exception. You should retry committing the latest consumed offsets.
Caused by: org.apache.kafka.common.errors.CoordinatorNotAvailableException: The coordinator is not available.
社区答复
这个报错看着是一个可以重试的异常,不过 Flink 里并没有对这个异常支持相应的重试逻辑 [1]/[2],只是打印了异常及记录相应的 metrics,你的作业已经开启了 cp,这个 WARN 日志实际上没有影响,社区之前也有过关于这个问题讨论[3]/[4],如果这个错误是因为 kafka broker 重启导致的,可以尝试参考 [4] 升级 kafka 版本试一下。
- https://github.com/apache/flink-connector-kafka/blob/main/flink-connector-kafka/src/main/java/org/apache/flink/connector/kafka/source/reader/KafkaPartitionSplitReader.java#L249
- https://github.com/apache/flink-connector-kafka/blob/main/flink-connector-kafka/src/main/java/org/apache/flink/connector/kafka/source/reader/KafkaSourceReader.java#L149
- https://issues.apache.org/jira/browse/FLINK-25293
- https://issues.apache.org/jira/browse/FLINK-28060
2288

被折叠的 条评论
为什么被折叠?



