Kafka 是如何保证数据可靠性和一致性
1、kafka的可靠性
为了保证数据可靠性,
https://blog.csdn.net/mengfeichuan2013/article/details/117355162
1.1 Topic 分区副本
1.2 Producer 往 Broker 发送消息
kafka使用了ack机制。
1.3 Leader 选举
为了保证数据的可靠性,我们最少需要配置一下几个参数:
•producer 级别:acks=all(或者 request.required.acks=-1),同时发生模式为同步 producer.type=sync
•topic 级别:设置 replication.factor>=3,并且 min.insync.replicas>=2;
•broker 级别:关闭不完全的 Leader 选举,即 unclean.leader.election.enable=false;
Kafka 的分区多副本架构是 Kafka 可靠性保证的核心,把消息写入多个副本可以使 Kafka 在发生崩溃时仍能保证消息的持久性。
-
kafka的一致性
-
精确一致的实现
https://baijiahao.baidu.com/s?id=1727873723062902531&wfr=spider&for=pc