Kafka 高效读写数据的原因

1. 顺序写磁盘

Kafka的producer生产数据,要写入到log文件中,写的过程是一直追加到文件末端,为顺序写。官网有数据表明,同样的磁
盘,顺序写能到600M/s,而随机写只有100K/s。这与磁盘的机械机构有关,顺序写之所以快,是因为其省去了大量磁头寻址的
时间。

2. 分段日志 + 索引文件

分段日志是通过数据的偏移量进行存储,索引文件是能快速定位所要查询数据的位置

1、Kafka把topic中一个parition大文件分成多个小文件段,通过多个小文件段,就容易定期清除或删除已经消费完文件,
减少磁盘占用。
2、通过索引信息可以快速定位message和确定response的最大大小。
3、通过index元数据全部映射到memory,可以避免segment file的IO磁盘操作。
4、通过索引文件稀疏存储,可以大幅降低index文件元数据占用空间大小。

3. 零拷贝

如下图所示是普通Java读取复制文件的一个流程
在这里插入图片描述

Java程序是无法直接操作硬件的,所以Java想要操作文件的话必须得通过操作系统去读取文件。这时就会涉及大量
的读写缓存,因为我们发送数据的时候不可能1kb的发,因此只能先缓存起来,这必定会涉及到大量的IO操作,由此可见
这样的效率并不是非常高的。

零拷贝
在这里插入图片描述

1.在Kafka中我们的Java程序并不需要文件的内容,所以Kafka就使用了零拷贝的技术,因此Kafka当中的数据直接缓存在
操作系统当中,我们读也在这里读 写也在这里写,这样的效率提高了许多
2.所谓的零拷贝并不是真正意义上的零拷贝 实际上是缓存了一次,只是相对于普通Java读取复制文件少了许多中间的缓存

4. Page Cache

在这里插入图片描述

由上图可见
1. 传统的数据传输是先将数据缓存在内存当中,当数据达到一定的阈值再写入到文件中。
2. Page Cache 是在操作系统开了一个内存将数据直接缓存到系统内存中。
3. 虽然将数据缓存到Page Cache中会比直接缓存到Memory中效率更低,但是当数据量达到一定的阈值的时候Memory会对
缓存中的数据进行溢写,这样的效率就会比直接写入Page Cache会更低,因为Page Cache对文件进行读写操作效率是非常
高的,而Memory对数据进行溢写这时就需要请求操作系统,所以这样的效率会比Page Cache对文件的读写操作效率低很多。
4. 缓存到Memory我们JVM所分配到的内存是有限的,而Page Cache是利用操作系统的内存。

5. 批量发送

kafka允许进行批量发送消息,producer发送消息的时候,可以将消息缓存在本地,等到了固定条件发送到kafka
	1. 等消息条数到固定条数
	2. 一段时间发送一次

6. 数据压缩

Kafka还支持对消息集合进行压缩,Producer可以通过GZIP或Snappy格式对消息集合进行压缩
压缩的好处就是减少传输的数据量,减轻对网络传输的压力
批量发送和数据压缩一起使用效果最好,单条做数据压缩的话,效果不明显
  • 8
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值