Kafka的log存储机制

Kafka的日志文件由多个segment file组成,每个segment包括一个数据文件和索引文件。文件命名基于第一条消息的偏移量,超过1GB会生成新segment。索引文件提供快速查找功能,通过松散索引加速数据定位,提高查询效率。
摘要由CSDN通过智能技术生成

log文件分析

log文件组成

在我们搭建Kafka集群的时候,一般都会配置日志文件的路径,我们可以通过该路径找到kafka的日志文件,log文件与partition关系如下图所示:Kafka的日志文件可以可以说由对个segment file组成,一个segment file由一个xx…x.log数据文件和一个xx…x.index文件组成,当单个数据文件达到1GB(默认),就会生成新的segment file,所以,一个分区当数据量达到一定时,一个分区就会有多个segment file。数据文件就是kafka缓存下来的数据,默认7天会自动清理。
在这里插入图片描述

索引文件和数据文件命名分析

segment file的index文件和log文件都是以log文件第一条消息的偏移量来命名的,长度为20位,不够的在前面补0,在文件达1GB后,新的文件产生,也会是采用这个命名方式,如下图,可以看出第一条数据文件里面有77893条消息,第二个数据文件的第一条数据的偏移量是77894。
在这里插入图片描述

索引文件和数据文件内容分析

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值