【Kafka】flink消费kafka报错 rebalanced and assigned the partitions to another member
最新推荐文章于 2024-09-25 20:20:49 发布
在将Spark任务迁移至Flink任务时,为避免数据丢失,使用相同groupid消费Kafka数据导致提交offset到Kafka失败。问题源于standalone consumer与consumer group冲突。解决方案是先下线旧Spark任务,获取旧groupid的offset,然后用新groupid提交offset并启动Flink任务。详细步骤涉及Kafka消费模式冲突和offset管理。
摘要由CSDN通过智能技术生成