kafka高效之一:文件系统

kafka关键特⾊
• 可伸缩架构
• 高吞吐量
• consumer自动负载均衡
• 支持集群多副本

博客是一个kafka文件系统深入过程

存储结构 

目的:提高磁盘利用率消息处理性能

1. 在kafka文件系统中,同一个topic下有多个不同partition,每个partition创建一个目录。即topic下有分区的子目录。

2. 每个partion相当于一个巨型文件被平均分配到多个大小相等的多个segment(段)文件中。但每个段segment file消息数量不一定相等,这种特性方便old segment file快速被删除。即分区目录下log文件大小一样。而且一个分区段文件(log文件)对应一个索引文件(index文件)

3. 每个partiton只需要支持顺序读写就行了,segment文件生命周期由服务端配置参数决定。

4. index为稀疏索引结构,并不存储每条记录的元数据信息


如何在partition中快速定位segment file

  1. topic下有不同分区,每个分区下面会划分为多个()文件,只有个当前文件在写(一个分区对应一个消费者),其他文件只读。当写满个文件(写满的意思是达到设定值)则切换文件,新建个当前文件用来写,老的当前文件切换为只读。文件的命名以起始偏移量来命名。删除文件时,使用了写时复制技术。
  2. 当消费者要拉取某个消息起始偏移量位置的数据变的相当简单,只要根据传上来的offset⼆分查找文件列表,定位到具体文件,然后根据索引文件⼆分搜索定位到index中的offset,读取log文件的偏移量,定位到log,即可开始传输数据。 

高效文件系统特点 

1.一个大文件分成多个小文件段。

2.多个小文件段,容易定时清除或删除已经消费完文件,减少磁盘占用

3.index,log全部映射到memory直接操作,使用零拷贝加页缓存技术,避免segment file被交换到磁盘增加IO操作次数。

4.根据索引元数据信息,可以确定consumer每次批量拉取最大msg chunk数量。

5.索引文件元数据存储用的是相对前个segment file的 offset存储,节省空间⼤小

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
第一章 需求 对方的网页文件接入到我方服务器。每个文件要知道其:网站、采集时间等。 通过消息队列将多个远程服务器上的【数据文件】源源不断的接入到本地服务器,数据文件是下载下来的网页,传输过来的时候还要带上来自的网站和下载日期等信息。 目前讨论消息队列用Kafka。 第二章 基本方案 1、我现在能想到的就是: 远程服务器编写程序, 不停读取文件的内容成为一个字符串,然后再加上来自的网站、下载日期等信息,组合成一个JSON字符串,通过调用kafka的生产者API将字符串写入Kafka。 2、JSON数据格式设计: { “source”: “来源网站名” , “filename” : “html文件名”, “download-date”: “下载日期” , ”content” : “一个html文件的全部字符串 “ } 注:假设.js \.css \.png文件都不需要 3、消息主题的设计: 一个网站对应一个topic,对应到本地的一个文件夹。 4、其他: 如果只是传输文件,不考虑加上网站、下载日期等信息的话,我知道的用Flume可能更方便,但是要加上网站、下载日期的信息(类似主题订阅的功能),flume就不太方便了? 5、可能存在的顾虑:网页数据文件对数据顺序性的要求的程度。 Kafka单分区的情况小支持消息有序性, 多分区下确保消息有序的方案还需深入调研。 如果之后一个主题下对应的网页文件没有特别的传输顺序要求,这一块应该会容易处理很多。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值