Kafka篇——Kafka实战线上问题优化之实现顺序消费,实际开发中的解决方案

一、顺序消费的应用场景
Kafka中顺序消费的应用场景主要涉及那些需要保证消息产生顺序和消费顺序一致的业务场景。这种场景使用并不多。例如,在订单处理系统中,订单的生成、支付、发货等步骤通常需要按照一定的顺序进行,以确保数据的完整性和一致性。
Kafka可以通过设置特定的参数来保证顺序消费,例如设置max.in.flight.requests.per.connection参数为1,可以保证消息按照发送的顺序写入服务器。
然而,需要注意的是,在顺序消费中,单线程的速度可能会比较慢,因此在一些需要高性能的场景下,可能会采用多线程并发消费的方案。在多线程并发消费中,消费者程序可以启动多个线程,每个线程维护专属的KafkaConsumer实例,负责完整的消息获取、消息处理流程。这样可以提高系统的吞吐量,同时保证消息的顺序正确性。

二、解决方案
1、发送方
在发送时将ack不能设置成0,关闭重试,使用同步发送,等到发送成功后再发送下一条,确保消息是顺序发送的。

2、消费方
消息发送到1个分区中,只能有1个消费组中的消费者来接收消费消息

这种方案就是会消耗掉Kafka的性能

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Kafka,要实现顺序消费可以使用两种方式: 1. 使用单个partition:在Kafka,每个topic可以分为多个partition,每个partition内部是有序的,但不同partition之间的消息是可以并发消费的。如果想要实现顺序消费,可以将消息全部发送到同一个partition,这样就可以保证消息被顺序消费。 2. 使用消息的key:在发送消息的时候,如果指定了相同的key,那么这些消息就会被发送到同一个partition。这样消费者在消费的时候就可以根据key来保证相同key的消息被顺序消费。 需要注意的是,如果使用第二种方式,则需要保证在同一个分区内只有一个消费者,否则消费者之间还是会并发消费。 同时,为了保证顺序消费,还需要考虑以下几点: 1. 需要使用单个消费者:因为多个消费者之间并发消费同一个分区的消息,可能会导致消息的顺序混乱,因此需要使用单个消费者来保证消费顺序。 2. 需要关闭消费者的自动提交:因为自动提交可能会导致消息顺序混乱,因此需要关闭自动提交,手动控制消费进度。 3. 需要确保消费者在处理完一个消息之后再处理下一个消息:这可以通过在处理完一个消息之后,调用commitSync()方法手动提交消费进度来实现。 下面是一个简单的顺序消费示例: ```java import org.apache.kafka.clients.consumer.*; import org.apache.kafka.common.TopicPartition; import java.util.*; public class KafkaConsumerOrderlyExample { private static final String TOPIC = "test"; private static final String GROUP_ID = "test-group"; private static final String BOOTSTRAP_SERVERS = "localhost:9092"; public static void main(String[] args) { Properties props = new Properties(); props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, BOOTSTRAP_SERVERS); props.put(ConsumerConfig.GROUP_ID_CONFIG, GROUP_ID); props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest"); props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false); // 关闭自动提交 KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props); consumer.subscribe(Collections.singletonList(TOPIC)); Map<TopicPartition, Long> currentOffsets = new HashMap<>(); try { while (true) { ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(1000)); for (ConsumerRecord<String, String> record : records) { String key = record.key(); String value = record.value(); int partition = record.partition(); long offset = record.offset(); System.out.printf("key=%s, value=%s, partition=%d, offset=%d%n", key, value, partition, offset); TopicPartition tp = new TopicPartition(TOPIC, partition); Long lastOffset = currentOffsets.get(tp); if (lastOffset == null || offset > lastOffset) { currentOffsets.put(tp, offset); } } // 提交消费进度 for (Map.Entry<TopicPartition, Long> entry : currentOffsets.entrySet()) { TopicPartition tp = entry.getKey(); Long offset = entry.getValue(); consumer.commitSync(Collections.singletonMap(tp, new OffsetAndMetadata(offset + 1))); } currentOffsets.clear(); } } finally { consumer.close(); } } } ``` 该示例演示了如何使用Kafka消费实现顺序消费,其关闭了自动提交,手动提交了消费进度,保证了消息的顺序性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Be explorer

若认可笔者文章,手头富裕望支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值