关于kafka需要知道的一些概念

kafka

一、名词解释

名词解释
Broker消息中间件处理节点,⼀个Kafka节点就是⼀个broker,⼀个或者多个Broker可以组成⼀个Kafka集群
TopicKafka根据topic对消息进⾏归类,发布到Kafka集群的每条消息都需要指定⼀个topic
Producer消息⽣产者,向Broker发送消息的客户端
Consumer消息消费者,从Broker读取消息的客户端

二、关于消息

⽣产者将消息发送给broker,broker会将消息保存在本地的⽇志⽂件中
消息的保存是有序的,通过offset偏移量来描述消息的有序性
消费者消费消息时也是通过offset来描述当前要消费的那条消息的位置

三、单播消息

在⼀个kafka的topic中,启动两个消费者,⼀个⽣产者,问:⽣产者发送消息,这条消息是否
同时会被两个消费者消费?
如果多个消费者在同⼀个消费组,那么只有⼀个消费者可以收到订阅的topic中的消息。换⾔
之,同⼀个消费组中只能有⼀个消费者收到⼀个topic中的消息。

四、多播消息

不同的消费组订阅同⼀个topic,那么不同的消费组中只有⼀个消费者能收到消息。实际上也
是多个消费组中的多个消费者收到了同⼀个消息。

五、消费组

通过以下命令可以查看到消费组的详细信息:

./kafka-consumer-groups.sh --bootstrap-server localhost:9092 --describe --group testGroup

在这里插入图片描述
current-offset: 最后被消费的消息的偏移量
Log-end-offset: 消息总量(最后⼀条消息的偏移量)
Lag:积压了多少条消息

六、主题Topic

主题-topic在kafka中是⼀个逻辑的概念,kafka通过topic将消息进⾏分类。不同的topic会被订阅该topic的消费者消费。
但是有⼀个问题,如果说这个topic中的消息⾮常⾮常多,多到需要⼏T来存,因为消息是会被保存到log⽇志⽂件中的。
为了解决这个⽂件过⼤的问题,kafka提出了Partition分区的概念

七、分区

1)分区的概念
通过partition将⼀个topic中的消息分区来存储。这样的好处有多个:
分区存储,可以解决统⼀存储⽂件过⼤的问题
提供了读写的吞吐量:读和写可以同时在多个分区中进⾏
在这里插入图片描述
2)创建多分区的主题

./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 2 --topic test

八、kafka中消息⽇志⽂件中保存的内容

在这里插入图片描述
00000000000000000000.log: 这个⽂件中保存的就是消息
在这里插入图片描述
__consumer_offsets-49:
kafka内部⾃⼰创建了__consumer_offsets主题包含了50个分区。这个主题⽤来存放消费
者消费某个主题的偏移量。因为每个消费者都会⾃⼰维护着消费的主题的偏移量,也就是
说每个消费者会把消费的主题的偏移量⾃主上报给kafka中的默认主题:
consumer_offsets。因此kafka为了提升这个主题的并发性,默认设置了50个分区。
提交到哪个分区:通过hash函数:hash(consumerGroupId) % __consumer_offsets主题的分区数
提交到该主题中的内容是:key是consumerGroupId+topic+分区号,value就是当前offset的值
⽂件中保存的消息,默认保存7天。七天到后消息会被删除。

九、kafka集群中的controller、 rebalance、HW(highwater)

1.controller
集群中谁来充当controller,每个broker启动时会向zk创建⼀个临时序号节点,获得的序号最⼩的那个broker将会作为集群中的controller,负责这么⼏件事:
• 当集群中有⼀个副本的leader挂掉,需要在集群中选举出⼀个新的leader,选举的规则是从isr集合中最左边获得。
• 当集群中有broker新增或减少,controller会同步信息给其他broker
• 当集群中有分区新增或减少,controller会同步信息给其他broker

2.rebalance机制
前提:消费组中的消费者没有指明分区来消费
触发的条件:当消费组中的消费者和分区的关系发⽣变化的时候
分区分配的策略:在rebalance之前,分区怎么分配会有这么三种策略
• range:根据公示计算得到每个消费消费哪⼏个分区:前⾯的消费者是分区总数/消费者数量+1,之后的消费者是分区总数/消费者数量
• 轮询:⼤家轮着来
• sticky:粘合策略,如果需要rebalance,会在之前已分配的基础上调整,不会改变之前的分配情况。如果这个策略没有开,那么就要进⾏全部的重新分配。建议开启。

3.HW和LEO
LEO是某个副本最后消息的消息位置(log-end-offset)
HW是已完成同步的位置。消息在写⼊broker时,且每个broker完成这条消息的同步后,hw才会变化。在这之前消费者是消费不到这条消息的。
在同步完成之后,HW更新之后,消费者才能消费到这条消息,这样的⽬的是防⽌消息的丢失。
在这里插入图片描述

十、副本

在创建主题时,除了指明了主题的分区数以外,还指明了副本数,那么副本是⼀个什么概念呢?

./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 2 --topic my-topic

副本是为了为主题中的分区创建多个备份,多个副本在kafka集群的多个broker中,会有⼀个副本作为leader,其他是follower。

查看topic情况

./kafka-topics.sh --describe --zookeeper localhost:2181 --topic my–topic

在这里插入图片描述
leader:
kafka的写和读的操作,都发⽣在leader上。leader负责把数据同步给follower。当leader挂了,经过主从选举,从多个follower中选举产⽣⼀个新的leader
follower:
接收leader的同步的数据
isr:
可以同步和已同步的节点会被存⼊到isr集合中。这⾥有⼀个细节:如果isr中的节点性能较差,会被踢出isr集合。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值