Kafka架构

本文详细介绍了Kafka的工作流程、文件存储机制、生产者和消费者的特性和策略,以及Kafka如何利用Zookeeper进行管理和事务支持。重点探讨了Kafka的分区策略、数据可靠性保证以及高效的读写机制,帮助读者全面掌握Kafka的核心概念和技术。
摘要由CSDN通过智能技术生成

一、Kafka 工作流程及文件存储机制

1.1 Kafka 工作机制

1、工作机制图示

在这里插入图片描述
2、工作机制
(1) Kafka 中消息是以 topic 进行分类的,生产者生成信息,消费者消费信息,都是面向 topic 的。

(2) topic 是逻辑上的概念,而 partition 是物理上的概念,每个 partition 对应于一个 log 文件,该 log 文件中储存的就是 producer 生成的数据。producer 生成的数据会不断追加到该 log 文件末端,且每条数据都有自己的 offset。消费者组中的每个消费者,都会实时记录自己消费到了哪个 offset,以便出错恢复时,从上次的位置继续消费。

1.2 文件存储机制

1、文件存储图示
在这里插入图片描述

2、存储机制详解

由于生产者生成的信息会不断追加到 log 文件末尾,为防止 log 文件过大导致数据定位效率低下,
Kafka 采取了分片加索引机制,将每个 partition 分为多个 segment。每个 segment 对应两个文件 – “.index” 文件和 “.log” 文件。这些文件位于一个文件夹下,该文件夹的命名规则为:topic 名称 + 分区编号。例如,first 这个 topic 有三个分区,则其对应的文件夹为 first-0,first-1,first-2。

00000000000000000000.index 
00000000000000000000.log 
00000000000000170410.index 
00000000000000170410.log
00000000000000239430.index 
00000000000000239430.log 

index 和 log 文件以当前 segment 的第一条消息的 offset 命名。下图为 index 文件和 log 文件的结构示意图。
在这里插入图片描述
“.index”文件存储大量的索引信息,“.log”文件存储大量的数据,索引文件中的元数据指向对应数据文件中 message 的物理偏移地址。

二、Kafka 生产者

2.1 分区策略

1、分区的原因
(1) 方便在集群中扩展,每个 Partition 可以通过调整以适应它所在的机器,而一个 topic 又可以有多个 Partition 组成,因此整个集群就可以适应任意大小的数据了。
(2) 可以提高并发,因为可以以 Partition 为单位读写了。

2、分区的原则
我们需要将 producer 发送的数据封装为一个 ProducerRecord 对象。
在这里插入图片描述
(1) 指明 partition 的情况下,直接将指明的值直接作为 partiton 值。
(2) 没有指明 partition 值但有 key 的情况下&#x

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值