![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Kafka
文章平均质量分 82
.L.JIN.Jie
这个作者很懒,什么都没留下…
展开
-
Kafka怎么保证消息发送不丢失
这意味着当 Consumer 完成对一条消息的处理后,会向 Kafka 提交消息的偏移量(offset),告知 Kafka 这条消息已被成功处理。LEO 的大小相当于当前日志分区中最后一条消息的offset值加1.分区 ISR 集合中的每个副本都会维护自身的 LEO ,而 ISR 集合中最小的 LEO 即为分区的 HW,对消费者而言只能消费 HW 之前的消息。4. 设置适当的消费者参数:根据你的需求,你可以根据消息量、处理能力等因素来调整消费者的配置参数,以确保消费者的性能和可靠性。原创 2023-12-22 18:16:43 · 2178 阅读 · 0 评论 -
Kafka 如何保证高可用?
会继续提供读写服务,这就有达到了所谓的高可用性。节点去读取消息,但是只有当一个消息已经被所有。上的数据都会同步到其它机器,形成自己的多个。分散放在多个机器上的,每个机器就放一部分数据。分布在不同的机器上,这样才可以提高容错性。就无法提供读写服务,所以这个版本之前,出来,消息的生产者和消费者都跟这个。之后,就会返回写成功的消息给生产者。的时候,这个消息才会被消费者读到。写数据的时候,生产者只将数据写入。消费数据的时候,消费者只会从。上去,读的时候就直接读。同步好数据了,就会发送。所在节点宕机了,这个。原创 2023-12-20 11:11:30 · 650 阅读 · 0 评论