Kafka会不会丢消息?怎么处理的?

Kafka存在丢消息的问题,消息丢失会发生在Broker,Producer和Consumer三种。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Properties props = new Properties();  
props.put("bootstrap.servers", "localhost:9092");  
props.put("group.id", "test");  
// 自动提交开关  
props.put("enable.auto.commit", "true");  
// 自动提交的时间间隔,此处是1s  
props.put("auto.commit.interval.ms", "1000");  
props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");  
props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");  
KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);  
consumer.subscribe(Arrays.asList("foo", "bar"));  
while (true) {  
        // 调用poll后,1000ms后,消息状态会被改为 committed  
  ConsumerRecords<String, String> records = consumer.poll(100);  
  for (ConsumerRecord<String, String> record : records)  
    insertIntoDB(record); // 将消息入库,时间可能会超过1000ms  

在这里插入图片描述

Properties props = new Properties();  
props.put("bootstrap.servers", "localhost:9092");  
props.put("group.id", "test");  
// 关闭自动提交,改为手动提交  
props.put("enable.auto.commit", "false");  
props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");  
props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");  
KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);  
consumer.subscribe(Arrays.asList("foo", "bar"));  
final int minBatchSize = 200;  
List<ConsumerRecord<String, String>> buffer = new ArrayList<>();  
while (true) {  
        // 调用poll后,不会进行auto commit  
  ConsumerRecords<String, String> records = consumer.poll(100);  
  for (ConsumerRecord<String, String> record : records) {  
    buffer.add(record);  
  }  
  if (buffer.size() >= minBatchSize) {  
    insertIntoDb(buffer);  
                // 所有消息消费完毕以后,才进行commit操作  
    consumer.commitSync();  
    buffer.clear();  
  }  

在这里插入图片描述

try {  
     while(running) {  
         ConsumerRecords<String, String> records = consumer.poll(Long.MAX_VALUE);  
         for (TopicPartition partition : records.partitions()) {  
             List<ConsumerRecord<String, String>> partitionRecords = records.records(partition);  
             for (ConsumerRecord<String, String> record : partitionRecords) {  
                 System.out.println(record.offset() + ": " + record.value());  
             }  
             long lastOffset = partitionRecords.get(partitionRecords.size() - 1).offset();  
             // 精确控制offset  
             consumer.commitSync(Collections.singletonMap(partition, new OffsetAndMetadata(lastOffset + 1)));  
         }  
     }  
 } finally {  
   consumer.close();  
 }
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kafka是一个分布式流处理平台,它具有高吞吐量、可扩展性和容错性的特点。在使用Kafka时,可能遇到一些故障情况,下面是一些常见的Kafka故障处理手册: 1. 网络故障:如果Kafka集群中的某个节点无法与其他节点通信,可以首先检查网络连接是否正常。可以使用ping命令或telnet命令测试节点之间的连通性。如果网络连接正常,可能是防火墙或路由配置问题导致的,需要检查相关配置。 2. 硬件故障:如果Kafka集群中的某个节点出现硬件故障,例如磁盘故障或内存故障,可以尝试将该节点从集群中移除,并替换为新的节点。在替换节点之前,需要确保已经备份了该节点上的数据3. 数据失:如果Kafka集群中的消息了,可能是由于生产者或消费者配置不正确导致的。可以检查生产者和消费者的配置文件,确保配置正确。另外,还可以通过设置合适的副本因子和ISR(In-Sync Replicas)配置来提高数据的可靠性。 4. 领导者选举问题:Kafka集群中的每个分区都有一个领导者(leader)和多个副本(replica)。如果领导者节点发生故障,Kafka自动进行领导者选举。但是,在选举期间可能出现数据不一致的情况。可以通过监控Kafka集群的状态,及时发现并解决领导者选举问题。 5. 日志文件过大:Kafka使用日志文件来存储消息数据。如果日志文件过大,可能导致磁盘空间不足或性能下降。可以通过定期清理过期的日志文件或增加磁盘容量来解决这个问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值