记一次Flink写入Kafka坑点

在Flink任务中,遇到写入Kafka数据仅部分分区有数据的问题。通过分析发现,原因是FlinkKafkaProducer011的分区策略与设置的并行度和Kafka主题分区数不匹配。解决方案包括调整并行度、指定key或自定义FlinkKafkaPartitioner。最终采取设置FlinkKafkaPartitioner为空和serializeKey返回null的策略,成功使所有分区接收到数据。
摘要由CSDN通过智能技术生成

最近做了一个将结果数据写入到Kafka的需求,sink部分代码如下:

val kafkaProducer: FlinkKafkaProducer011[String] = new FlinkKafkaProducer011[String](
        sinkTopic, new StringKeyedSerializationSchema,producerConfig, sinkSemantic)
      ds.addSink(kafkaProducer).setParallelism(sinkParallelism)

其中StringKeyedSerializationSchema是自定义的实现KeyedSerializationSchema的序列化器,用于序列化写入kafka的key/value, 任务也上线了,在flink web页面看到任务各项指标一切正常,也测试消费写入kafka的数据,得到的结果也如预期一样,想着万事大吉了,so easy~ 过了一会kafka中间件的同事找过来说:你这个写入topic的数据怎么只有这几个分区,其他分区都没有数据写入

什么情况?任务看着一切都ok啊,怎么就有分区没有数据写入呢?马上google一下数据写入kafka的分区策略:

  • 如果指定写入分区,就将数据写入分区
  • 如果没有指定分区,指定了key, 那么就会按照key hash对分区取模方式发送
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

王知无(import_bigdata)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值