Flink SQL 写入 kafka 自定义分区策略
当用 Flink SQL 写入 kafka 的时候如何指定分区策略呢?其实 Flink SQL 本身是提供有 sink.partitioner 参数的,详细可以查看官网 https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/connectors/table/kafka/#sink-partitioner
| sink.partitioner | optional | ‘default’ | String | Output partitioning from Flink’s partitions into Kafka’s partitions. Valid values aredefault: use the kafka default partitioner to partition records.fixed: each Flink partition ends up in at most one Kafka partition.round-robin: a Flink partition is distributed to Kafka partitions sticky round-robin. It only works when record’s keys are not specified.Custom FlinkKafkaPartiti |
|---|
本文介绍了如何使用Flink SQL写入Kafka时自定义分区策略,详细讲解了default、fixed、round-robin等选项,并通过代码示例展示了如何实现FlinkKafkaPartitioner接口,确保数据按预期进入特定分区。测试结果显示,自定义分区策略成功将相同name的数据写入同一Kafka分区。
订阅专栏 解锁全文
489

被折叠的 条评论
为什么被折叠?



