kafka原理讲解一:

入门:
消息中间件:

一、发布和订阅:消费者分布在不同的group中。
二、队列模式:所有的消费者共同属于一个group,消息只会被消费一次。

②topic:

 Topic可以认为是一类消息,每个topic将被分成多个partition(区),每个partition(在存储层面是append log文件)。任何发布到此partition的消息都会被直接追加到log文件的尾部,每条消息在文件中的位置称为offset(偏移量),offset为一个long型数字,它是唯一标记一条消息。这个offset是递增的,所以每个parttion中存储的消息是有序的。

③生产者:会选择一个topic将生产的消息会通过分配策略append到某个partition的末尾,


④消费者:会选择一个指定的topic,通过id指定从哪个位置开始消费消息,消费完成之后保留id,下次可以从这个位置开始继续消费,也可以从其他任意位置开始消费(更换groupId)。

对于consumer而言,它需要保存消费消息的offset,对于offset的保存和使用,有consumer来控制;当consumer正常消费消息时,offset将会"线性"的向前驱动,即消息将依次顺序被消费。

注:事实上consumer可以使用任意顺序消费消息,它只需要将offset重置为任意值。

即使消息被消费,消息仍然不会被立即删除.日志文件将会根据broker中的配置要求,保留一定的时间之后删除;比如log文件保留2天,那么两天后,文件会被清除,无论其中的消息是否被消费.kafka通过这种简单的手段,来释放磁盘空间,以及减少消息消费之后对文件内容改动的磁盘IO开支.

一个conmuser属于一个conmuser group,一个conmuser group中含有多个conmuser,一个conmuser group中只会有一个消费者去消费消息,每个group中consumer消息消费互相独立;不过一个consumer可以消费多个partitions中的消息.kafka只能保证一个partition中的消息被某个consumer消费时,消息是顺序的.事实上,从Topic角度来说,消息仍不是有序的.


⑤分区
partitions的设计目的有多个.最根本原因是kafka基于文件存储.通过分区,可以将日志内容分散到多个server上,来避免文件尺寸达到单机磁盘的上限,每个partiton都会被当前server(kafka实例)保存;可以将一个topic切分多任意多个partitions,来消息保存/消费的效率.此外越多的partitions意味着可以容纳更多的consumer,有效提升并发消费的能力.

注:consumer的数量补不能多于parttion的数量,如果多于parttion的数量将意味着有些conmuser消费不到消息。

⑥消息的备份(relpications)
一个Topic的多个partitions,被分布在kafka集群中的多个server上;每个server(kafka实例)负责partitions中消息的读写操作;此外kafka还可以配置partitions需要备份的个数(replicas),每个partition将会被备份到多台机器上,以提高可用性.
    基于replicated方案,那么就意味着需要对多个备份进行调度;每个partition都有一个server为"leader";leader负责所有的读写操作,如果leader失效,那么将会有其他follower来接管(成为新的leader);follower只是单调的和leader跟进,同步消息即可..由此可见作为leader的server承载了全部的请求压力,因此从集群的整体考虑,有多少个partitions就意味着有多少个"leader",kafka会将"leader"均衡的分散在每个实例上,来确保整体的性能稳定.

任何一个partition有一个leader和多个follower(可以没有);备份的个数可以通过broker配置文件来设定.leader处理所有的read-write请求,follower需要和leader保持同步.Follower和consumer一样,消费消息并保存在本地日志中;leader负责跟踪所有follower状态,如果follower"落后"太多或者失效,leader将会把它从replicas同步列表中删除.当所有的follower都将一条消息保存成功,此消息才被认为是"committed",那么此时consumer才能消费它.即使只有一个replicas实例存活,仍然可以保证消息的正常发送和接收,只要zookeeper集群存活即可.(不同于其他分布式存储,比如hbase需要"多数派"存活才行)
    当leader失效时,需在followers中选取出新的leader,可能此时follower落后于leader,因此需要选择一个"up-to-date"的follower.选择follower时需要兼顾一个问题,就是新leaderserver上所已经承载的partition leader的个数,如果一个server上有过多的partition leader,意味着此server将承受着更多的IO压力.在选举新leader,需要考虑到"负载均衡".


使用场景:
①Messaging   
②Websit activity tracking
③Log Aggregation


 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kafka是一个分布式的基于发布订阅模式的消息队列,主要用于大数据实时处理。在Kafka中,消息是以topic进行分类的,生产者生产消息,消费者消费消息都是面向topic的。[2] 在Kafka 0.11版本之后,引入了幂等性机制,配合acks=-1的at least once语义,实现了从producer到broker的exactly once语义。这意味着Kafka能够提供精确一次交付的功能,保证消息不会被重复处理。 此外,Kafka有效地支持精确一次交付。对于Kafka Streams中的数据传输和处理,事务性生产者/消费者是可用的。而对于其他目的地系统的精确一次交付,通常需要与Kafka进行合作。Kafka提供了偏移量,这使得实现精确一次交付成为可能。默认情况下,Kafka保证至少进行一次传递,并且允许用户通过禁用生产者的重试并在消费者中提交偏移来实现最多一次传递的语义。 综上所述,Kafka的消息队列原理主要包括基于发布订阅模式的分类消息、幂等性机制、精确一次交付等特性。<span class="em">1</span><span class="em">2</span><span class="em">3</span><span class="em">4</span> #### 引用[.reference_title] - *1* *2* *3* [kafka基本原理](https://blog.csdn.net/khuangliang/article/details/107776046)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *4* [消息队列之-Kafka原理讲解](https://blog.csdn.net/wanglei_storage/article/details/82692413)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值