多线程开发Kafka消费者的方案和优劣





Kafka Java Consumer设计原理

        Kafka0.10.1.0版本开锁后,KafkaConsumer就变成了双线程设计,即用户主线程心跳线程。但是在消费这个层面上看都还是单线程的设计。


        而在老版本kafka中Scala Consumer 的API是多线程的,并且是阻塞机制,为了更好的打造上下游生态,Kafka将更好实现的单线程API推出,并且是否使用多线程来交给用户的选择。

多线程方案

1. 消费者程序启动多个线程

每个线程维护专属的 KafkaConsumer 实例负责完整的消息获取、消息处理流程。如下图所示:
在这里插入图片描述

2. 消费者程序使用单或多线程获取消息,同时创建多个消费线程执行消息处理逻辑。

获取消息的线程可以是一个,也可以是多个,每个线程维护专属的 KafkaConsumer 实例,处理消息则交由特定的线程池来做,从而实现消息获取与消息处理的真正解耦。具体架构如下图所示:

在这里插入图片描述

方案一的优势

  1. 实现起来简单,因为它比较符合目前我们使用 Consumer API 的习惯。我们在写代码的
    时候,使用多个线程并在每个线程中创建专属的 KafkaConsumer 实例就可以了。
  2. 多个线程之间彼此没有任何交互,省去了很多保障线程安全方面的开销。
  3. 由于每个线程使用专属的 KafkaConsumer 实例来执行消息获取和消息处理逻辑,因
    此,Kafka 主题中的每个分区都能保证只被一个线程处理,这样就很容易实现分区内的
    消息消费顺序。这对在乎事件先后顺序的应用场景来说,是非常重要的优势。

方案一的不足

  1. 每个线程都维护自己的 KafkaConsumer 实例,必然会占用更多的系统资源,比如内
    存、TCP 连接等。在资源紧张的系统环境中,方案 1 的这个劣势会表现得更加明显。
  2. 这个方案能使用的线程数受限于 Consumer 订阅主题的总分区数。我们知道,在一个消
    费者组中,每个订阅分区都只能被组内的一个消费者实例所消费。假设一个消费者组订
    阅了 100 个分区,那么方案 1 最多只能扩展到 100 个线程,多余的线程无法分配到任
    何分区,只会白白消耗系统资源。当然了,这种扩展性方面的局限可以被多机架构所缓
    解。除了在一台机器上启用 100 个线程消费数据,我们也可以选择在 100 台机器上分别
    创建 1 个线程,效果是一样的。因此,如果你的机器资源很丰富,这个劣势就不足为虑
    了。
  3. 每个线程完整地执行消息获取和消息处理逻辑。一旦消息处理逻辑很重,造成消息处理
    速度慢,就很容易出现不必要的 Rebalance,从而引发整个消费者组的消费停滞。这个
    劣势你一定要注意。我们之前讨论过如何避免 Rebalance。

方案二的优势

方案 2 将任务切分成了消息获取和消息处理两个部分,分别由不
同的线程处理它们。比起方案 1,方案 2 的最大优势就在于它的高伸缩性,就是说我们可
以独立地调节消息获取的线程数,以及消息处理的线程数,而不必考虑两者之间是否相互影
响。如果你的消费获取速度慢,那么增加消费获取的线程数即可;如果是消息的处理速度
慢,那么增加 Worker 线程池线程数即可。

方案二的不足

  1. 它的实现难度要比方案 1 大得多,毕竟它有两组线程,你需要分别管理它们。
  2. 因为该方案将消息获取和消息处理分开了,也就是说获取某条消息的线程不是处理该消
    息的线程,因此无法保证分区内的消费顺序。举个例子,比如在某个分区中,消息 1 在
    消息 2 之前被保存,那么 Consumer 获取消息的顺序必然是消息 1 在前,消息 2 在
    后,但是,后面的 Worker 线程却有可能先处理消息 2,再处理消息 1,这就破坏了消
    息在分区中的顺序。还是那句话,如果你在意 Kafka 中消息的先后顺序,方案 2 的这个
    劣势是致命的。
  3. 方案 2 引入了多组线程,使得整个消息消费链路被拉长,最终导致正确位移提交会变得
    异常困难,结果就是可能会出现消息的重复消费。如果你在意这一点,那么我不推荐你
    使用方案 2。

方案一主体实现

public class KafkaConsumerRunner implements Runnable {
	 private final AtomicBoolean closed = new AtomicBoolean(false);
	 private final KafkaConsumer consumer;
	 public void run() {
		 try {
			 consumer.subscribe(Arrays.asList("topic"));
			 while (!closed.get()) {
			 	ConsumerRecords records = consumer.poll(Duration.ofMillis(10000));
 				// 执行消息处理逻辑
 		 	}
 		} catch (WakeupException e) {
 // Ignore exception if closing
 			if (!closed.get()) throw e;
 		} finally {
 			consumer.close();
 		}
 	}
 // Shutdown hook which can be called from a separate thread
 	public void shutdown() {
 		closed.set(true);
 		consumer.wakeup();
	}
	...
}

这段代码创建了一个 Runnable 类,表示执行消费获取和消费处理的逻辑。每个KafkaConsumerRunner 类都会创建一个专属的 KafkaConsumer 实例。在实际应用中,你可以创建多个 KafkaConsumerRunner 实例,并依次执行启动它们,以实现方案 1 的多线程架构。

方案二主体实现

private final KafkaConsumer<String, String> consumer;
private ExecutorService executors;
...
private int workerNum = ...;
executors = new ThreadPoolExecutor(
workerNum, workerNum, 0L, TimeUnit.MILLISECONDS,
new ArrayBlockingQueue<>(1000), 
new ThreadPoolExecutor.CallerRunsPolicy());
...
while (true) {
	ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(1));
	for (final ConsumerRecord record : records) {
		executors.submit(new Worker(record));
	}
}

当 Consumer 的 poll 方法返回消息后,由专门的线程池来负责处理具体的消息。调用 poll 方法的主线程不负责消息处理逻辑,这样就实现了方案 2 的多线程架构。






如有错误欢迎指正

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 可以使用Kafka提供的Java客户端API来实现多线程消费Kafka消息。具体步骤如下: 1. 创建Kafka消费者实例,设置消费者配置参数,如bootstrap.servers、group.id等。 2. 创建多个消费线程,每个线程都创建一个Kafka消费者实例并订阅相同的Kafka主题。 3. 在每个消费线程中,使用Kafka消费者实例的poll()方法从Kafka主题中拉取消息。 4. 处理拉取到的消息,可以将消息放入线程安全的队列中,由其他线程进行处理。 5. 在消费线程中,使用Kafka消费者实例的commitSync()方法提交消费偏移量,确保消息被成功处理。 6. 在主线程中,等待所有消费线程完成消费任务后,关闭Kafka消费者实例。 示例代码如下: ```java public class KafkaConsumerDemo { private static final String TOPIC_NAME = "test-topic"; private static final int NUM_THREADS = 3; public static void main(String[] args) { Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("group.id", "test-group"); props.put("enable.auto.commit", "false"); props.put("auto.offset.reset", "earliest"); props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); ExecutorService executorService = Executors.newFixedThreadPool(NUM_THREADS); for (int i = 0; i < NUM_THREADS; i++) { executorService.execute(() -> { KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props); consumer.subscribe(Collections.singleton(TOPIC_NAME)); while (true) { ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100)); for (ConsumerRecord<String, String> record : records) { // 处理消息 System.out.printf("Thread: %s, offset: %d, key: %s, value: %s\n", Thread.currentThread().getName(), record.offset(), record.key(), record.value()); } consumer.commitSync(); } }); } Runtime.getRuntime().addShutdownHook(new Thread(() -> { executorService.shutdownNow(); })); } } ``` 上面的示例代码创建了3个消费线程,每个线程都创建了一个Kafka消费者实例,并订阅了名为test-topic的Kafka主题。在每个消费线程中,使用poll()方法从Kafka主题中拉取消息,并处理消息。在消费线程中,使用commitSync()方法提交消费偏移量。在主线程中,通过addShutdownHook()方法注册了一个钩子函数,用于在程序退出时关闭线程池。 ### 回答2: Java多线程消费Kafka是一种常见的消息消费方式,适用于需要高性能和高并发处理消息的场景。下面是一个简单的示例代码,用于演示Java多线程消费Kafka的基本思路。 1. 首先,我们需要引入Kafka的Java客户端依赖包,例如Apache Kafka提供的`kafka-clients`库。 2. 然后,我们创建一个消费者线程类`ConsumerThread`,实现`Runnable`接口,该类的主要功能是从Kafka主题订阅消息并进行处理。 3. 在`ConsumerThread`类的构造函数中,我们可以传入一些配置参数,例如Kafka的服务器地址、消费者组ID以及要消费的主题等。 4. 在`run()`方法中,我们可以实例化一个Kafka消费者对象,并设置消费者的配置参数。然后,通过`consumer.subscribe()`方法订阅指定的主题。 5. 在一个无限循环中,通过`consumer.poll()`方法从Kafka中拉取消息。拉取到的消息会被封装成一个`ConsumerRecords`对象。 6. 迭代`ConsumerRecords`对象,并逐条处理每条消息。处理的逻辑可以根据业务需求自定义,例如将消息保存到数据库、进行计算或者发送到其他系统等。 7. 最后,记得在合适的时候关闭消费者对象,释放资源。 使用多线程消费Kafka能够提高消息消费的效率和并发性。可以考虑将消费者线程实例化为一个线程池,并指定线程数,以实现并发处理。 需要注意的是,在多线程消费Kafka的场景下,可能会出现消息顺序不一致的情况。因此,需要根据业务需求来判断是否需要保持消息的顺序性。 ### 回答3: Java中可以使用Apache Kafka客户端库来实现多线程消费Kafka。多线程消费可以提高消费速度和并发性。 首先,我们需要创建一个Kafka消费者对象,指定要消费的主题和Kafka集群的地址。然后,我们可以使用该消费者对象来订阅要消费的主题。 接下来,我们可以创建多个线程来同时消费Kafka消息。每个线程都可以创建一个新的消费者实例,并在每个线程中运行一个消费循环,以接收并处理从Kafka中获取的消息。 在消费循环中,我们可以使用一个无限循环来持续地消费Kafka消息。在每次循环中,我们可以使用消费者对象的poll方法来获取一批新的消息。然后,我们可以遍历这批消息并进行相应的处理。 在处理消息的过程中,我们需要确保每个线程都能处理自己所接收到的消息,并且要考虑到线程安全性。可以使用锁或其他线程同步机制来保证多个线程之间的数据访问的一致性和互斥性。 此外,在处理消息的过程中,我们还可以对消息进行一些后续的处理,比如将消息保存到数据库、发送到其他系统或进行其他的业务逻辑操作。 最后,当需要停止消费线程时,我们可以调用消费者对象的close方法来关闭消费者。这将会释放消费者所占用的资源,并停止消费。 综上所述,通过创建多线程来消费Kafka消息可以提高消费速度和并发性,从而更好地满足高并发场景下的需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一只小小狗

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值