Kafka 为什么那么快?

点击上方“Java基基”,选择“设为星标”

做积极的人,而不是积极废人!

每天 14:00 更新文章,每天掉亿点点头发...

源码精品专栏

 

来源:juejin.cn/post/

7134463012563320868


有人说:他曾在一台配置较好的机子上对 Kafka 进行性能压测,压测结果是 Kafka 单个节点的极限处理能力接近每秒 2000万 条消息,吞吐量达到每秒 600MB

Kafka 为什么这么快?如何做到这个高的性能?

本篇文章主要从这 3 个角度来分析:

  • 生产端

  • 服务端 Broker

  • 消费端

a2f896e1ffa854f1ab681337f315a41a.jpeg

先来看下生产端发送消息,Kafka 做了哪些优化?

(1)生产端 Producer

ffdcfed20ae68e25957d090bc6509a21.gif

先来回顾下 Producer 生产者发送消息的流程:

  1. 首先指定消息发送到哪个 Topic

  2. 选择一个 Topic 的分区 partitiion,默认是轮询来负载均衡。

    也可以指定一个分区 key,根据 keyhash 值来分发到指定的分区。

    也可以自定义 partition 来实现分区策略。

  3. 找到这个分区的 leader partition

  4. 与所在机器的 Brokersocket 建立通信。

  5. 发送 Kafka 自定义协议格式的请求(包含携带的消息、批量消息 )。

将思绪集中在消息发送时候,可发现这两个华点:批量消息自定义协议格式

  1. 批量发送:减少了与服务端 Broker 处理请求的次数,从而提升总体的处理能力。

    调用 send() 方法时,不会立刻把消息发送出去,而是缓存起来,选择恰当时机把缓存里的消息划分成一批数据,按批次发送给服务端 Broker

  2. 自定义协议格式:序列化方式和压缩格式都能减少数据体积,从而节省网络资源消耗。

各种压缩算法对比:

  • 吞吐量方面:LZ4 > Snappy > zstdGZIP

  • 压缩比方面:zstd > LZ4 > GZIP > Snappy

216ffd9a7b6509076d1ee81e1fef886c.jpeg

基于 Spring Boot + MyBatis Plus + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

  • 项目地址:https://github.com/YunaiV/ruoyi-vue-pro

  • 视频教程:https://doc.iocoder.cn/video/

(2)服务端 Broker

Broker 的高性能主要从这 3 个方面体现:

  1. PageCache 缓存

  2. Kafka 的文件布局 以及 磁盘文件顺序写入

  3. 零拷贝 sendfile:加速消费流程

下面展开讲讲。

1) PageCache 加速消息读写

使用 PageCache 主要能带来如下好处:

  1. 写入文件的时候:操作系统会先把数据写入到内存中的 PageCache,然后再一批一批地写到磁盘上,从而减少磁盘 IO 开销。

a34270abe611c0b8cff7244a2060626c.jpeg
  1. 读取文件的时候:也是从 PageCache 中来读取数据。

    如果消息刚刚写入到服务端就会被消费,按照 LRU 的“优先清除最近最少使用的页”这种策略,读取的时候,对于这种刚刚写入的 PageCache,命中的几率会非常高。

2) Kafka 的文件布局 以及 磁盘文件顺序写入

文件布局如下图所示:

9a1453c1ba77b574f7157fb1634bfe13.jpeg

主要特征是: 文件的组织方式是“topic + 分区”,每一个 topic 可以创建多个分区,每一个分区包含单独的文件夹。

Kafka 在分区级别实现文件顺序写:即多个文件同时写入,更能发挥磁盘 IO 的性能。

  • 相对比 RocketMQ RocketMQ 在消息写入时追求极致的顺序写,所有的消息不分主题一律顺序写入 commitlog 文件, topic 和 分区数量的增加不会影响写入顺序。

  • 弊端: Kafka 在消息写入时的 IO 性能,会随着 topic 、分区数量的增长先上升,后下降。

    所以使用 Kafka 时,要警惕 Topic 和 分区数量。

3)零拷贝 sendfile:加速消费流程

当不使用零拷贝技术读取数据时:

1110ba65d1c0a0a057af948346c0535b.jpeg

流程如下:

  1. 消费端 Consumer:向 Kafka Broker 请求拉取消息

  2. Kafka BrokerOS Cache 读取消息到 应用程序的内存空间:

    a. 若 OS Cache 中有消息,则直接读取 b. 若 OS Cache 中无消息,则从磁盘里读取

  3. 再通过网卡,socket 将数据发送给 消费端Consumer

当使用零拷贝技术读取数据:

bcc03514cc79f9b9221323d2c89f5658.jpeg

Kafka 使用零拷贝技术可以把这个复制次数减少一次,直接从 PageCache 中把数据复制到 Socket 缓冲区中。

  • 这样不用将数据复制到用户内存空间。

  • DMA 控制器直接完成数据复制,不需要 CPU 参与,速度更快。

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

  • 项目地址:https://github.com/YunaiV/yudao-cloud

  • 视频教程:https://doc.iocoder.cn/video/

(3)消费端 Consumer

消费者只从 Leader分区批量拉取消息。

为了提高消费速度,多个消费者并行消费比不可少。Kafka 允许创建消费组(唯一标识 group.id),在同一个消费组的消费者共同消费数据。

举个栗子:

  • 有两个 Kafka Broker,即有 2个机子

  • 有一个主题:TOPICA,有 3 个分区(0, 1, 2)

3fcb7b9235f182b0c1f4b40c60b5bdca.jpeg

如上图,举例 4 中情况:

  1. group.id = 1,有一个消费者:这个消费者要处理所有数据,即 3 个分区的数据。

  2. group.id = 2,有两个消费者:consumer 1消费者需处理 2个分区的数据,consumer2 消费者需处理 1个分区的数据

  3. group.id = 3,有三个消费者:消费者数量与分区数量相等 ,刚好每个消费者处理一个分区

  4. group.id = 4,有四个消费者:消费者数量 > 分区数量 ,第四个消费者则会处于空闲状态



欢迎加入我的知识星球,一起探讨架构,交流源码。加入方式,长按下方二维码噢

153886c19f5d0fe1763b82f0a2e447a8.png

已在知识星球更新源码解析如下:

d6ba543004c5eafc7f503f2bfd887621.jpeg

1b678f779fa85da7cb173267ca695af9.jpeg

abb9474d237c59a29b0a343d2c89e445.jpeg

018c92d064afd85cf3aa639b21d04cc0.jpeg

最近更新《芋道 SpringBoot 2.X 入门》系列,已经 101 余篇,覆盖了 MyBatis、Redis、MongoDB、ES、分库分表、读写分离、SpringMVC、Webflux、权限、WebSocket、Dubbo、RabbitMQ、RocketMQ、Kafka、性能测试等等内容。

提供近 3W 行代码的 SpringBoot 示例,以及超 6W 行代码的电商微服务项目。

获取方式:点“在看”,关注公众号并回复 666 领取,更多内容陆续奉上。

文章有帮助的话,在看,转发吧。
谢谢支持哟 (*^__^*)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值