kafka 为了保证数据的一致性使用了isr 机制
- 首先我们知道kafka 的数据是多副本的,某个topic的replication-factor为N且N大于1时,每个Partition都会有N个副本(Replica)。kafka的replica包含leader与follower。每个topic 下的每个分区下都有一个leader 和(N-1)个follower,
- 每个follower 的数据都是同步leader的 这里需要注意 是follower 主动拉取leader 的数据
- Replica的个数小于等于Broker的个数,也就是说,对于每个Partition而言,每个Broker上最多只会有一个Replica,因此可以使用Broker id 指定Partition的Replica
注意:
follewer 只是数据的副本提供数据的可恢复性,本身和kafka 的读写性能无关(kafka的读写都是和leader 相关),那么每个分区都有多个副本,这样该如何确定副本的数据和leader 的数据是同步的?
isr 的全称是:In-Sync Replicas isr 是一个副本的列表,里面存储的都是能跟leader 数据一致的副本,确定一个副本在isr列表中,有2个判断条件
- 根据副本和leader 的交互时间差,如果大于某个时间差 就认定这个副本不行了,就把此副本从isr 中剔除,此时间差根据
配置参数rerplica.lag.time.max.ms=10000
也就是默认10s,isr中的follow没有向isr发送心跳包就会被移除
- 根据leader 和副本的信息条数差值决定是否从isr 中剔除此副本,此信息条数差值根据配置参数
rerplica.lag.max.messages=4000 决定 ,也就是默认消息差大于4000会被移除
注意点:kafka后续版本移除了第二个判断条件,只保留了第一个,以内极端情况下,如果producor一次性发来了10000条数据,而默认条数差立马会大于4000