Kafka概念及组件介绍

Kafka--分布式消息队列系统

1、分布式消息队列系统,先入先出,同时提供数据分布式缓存功能

2、消息持久化:数据读取速度可以达到O(1)——预读,后写(按顺序,ABCDE,正读A,预读B;尾部追加写)对磁盘的顺序访问比内存访问还快)

一、kafka快原因:

1.cache缓存+

2.顺序写入(写数据,磁盘顺序)+

3.零拷贝(1.让操作系统cache中的数据发送到网卡2.网卡传出给下游的消费者)

4.批量发送 +数据压缩

Kafka总结分布式、分区的、多副本的、多订阅者,基于zookeeper协调的分布式日志系统

二、保证消息的可靠性,至少需要配置一下参数:详细看下边13.

topic级别:replication-factor>=3;  多副本

producer级别:acks=-1;同时发送模式设置producer.type=sync;

              ack=-1:producer需要等待ISR中的所有follower都确认接收到数据后才算一次发送完成,可靠性最高

broker级别:关闭不完全的leader选举,即unclean.leader.election.enable=false;

三、kafka作用:消息缓冲 ,flume百万条 ,而sparkstreaming只能处理几万条,中间需要kafka缓冲

1. kafka特性:

- 高吞吐量、低延迟kafka每秒可以处理几十万条消息,它的延迟最低只有几毫秒

- 可扩展性:kafka集群支持热扩展

- 持久性、可靠性:消息被持久化到本地磁盘,并且支持数据备份防止数据丢失

- 容错性:允许集群中节点失败(若副本数量为n,则允许n-1个节点失败)

- 高并发:支持数千个客户端同时读写

Kafka应用场景

主要应用场景是:日志收集、消息系统、用户活动跟踪、运营指标、流式处理等

  • 消息系统
  • 日志系统
  • 流处理

2.组件说明

• Kafka内部是分布式的、一个Kafka集群通常包括多个Broker

• zookeeper负载均衡:将Topic分成多个分区每个Broker存储一个或多个Partition

• 多个Producer和Consumer同时生产和消费消息

1.Broker:每个kafka实例(server),可以理解为一台机器(节点)

2.Producer:消息生产者,发布消息(写消息)到 kafka 集群的终端或服务。

  • 生产者可以发布数据到它指定的topic中,并可以指定在topic里哪些消息分配到哪些分区(比如简单的轮流分发各个分区或通过指定分区语义分配key到对应分区)

  • 生产者直接把消息发送给对应分区的broker,而不需要任何路由层。
  • 批处理发送,当message积累到一定数量或等待一定时间后进行发送。

3.Consumer:从kafka 集群中消费消息(读数据)的终端或服务。

  • 一种更抽象的消费方式:消费组(consumer groupid)streaming

  • 该方式包含了传统的queue和发布订阅方式

– 首先消费者标记自己一个消费组名。消息将投递到每个消费组中的某一个消费者实例上。

– 如果所有的消费者实例都有相同的消费组,这样就像传统的queue方式。

– 如果所有的消费者实例都有不同的消费组,这样就像传统的发布订阅方式。

– 消费组就好比是个逻辑的订阅者,每个订阅者由许多消费者实例构成(用于扩展或容错)。

  • 相对于传统的消息系统,kafka拥有更强壮的顺序保证。
  • 由于topic采用了分区,可在多Consumer进程操作时保证顺序性和负载均衡
  • 同一个group的consumer可以并行消费同一个topic的消息,但是同group的consumer,不会重复消费

 

4.Topic(虚拟概念)队列:每条发布到 kafka 集群的消息属于的类别kafka 是面向 topic 的

Topic 与offset

• 一个Topic是一个用于发布消息的分类或feed名,kafka集群使用分区的日志,每个分区都是有顺序且不变的消息序列

• commit的log可以不断追加。消息在每个分区中都分配了一个叫offset的id序列来唯一识别分区中的消息。

 

1. 无论有没有消费,消息会被清理(如果没有消费,消息会一直持久化,通过以下两配置清理)

       (1)配置持久化周期:7天 (2)配置最大的数据量

2.在每个消费者都持久化这个offset在日志中。通常消费者读消息时offset值会线性的增长,但实际上其位置是由消费者

      控制,它可以按任意顺序来消费消息。比如复位到老的offset来重新处理。

3.每个分区代表一个并行单元。

5.分区Partition每个 topic 包含一个或多个 partition。kafka 分配的单位是 partition

  • 存储,实现负载均衡(不同partiton可分布在不同机器),保证消息顺序性

  • 顺序性保证:局部顺序性(顺序性得到一定保证:订阅消息是从头向后读的,写消息是尾部追加的)

  • Partition以文件夹形式存在

大多数消息系统,同一个topic下的消息,存储在一个队列。分区的概念就是把这个队列划分为若干个小队列,每一个小队列就是一个分区,如下图:

从上图已经可以看出来。无分区时,一个topic只有一个消费者在消费这个消息队列。采用分区后,如果有两个分区,最多两个消费者同时消费,消费的速度肯定会更快。如果觉得不够快,可以加到四个分区,让四个消费者并行消费。

分区的设计大大的提升了kafka的吞吐量!!!

此图包含如下几个知识点:

1、一个partition只能被同组的一个consumer消费(图中只会有一个箭头指向一个partition)

2、同一个组里的一个consumer可以消费多个partition(图中第一个consumer消费Partition 0和3)

3、消费效率最高的情况是partition和consumer数量相同。这样确保每个consumer专职负责一个partition。

4、consumer数量不能大于partition数量。由于第一点的限制,当consumer多于partition时,就会有consumer闲置。

5、consumer group可以认为是一个订阅者的集群,其中的每个consumer负责自己所消费的分区


Topic和Partition关系:

每个partition都是有序的不可变的。

Kafka可以保证partition的消费顺序,但不能保证topic消费顺序

(1)topic是逻辑概念,Partition是物理概念,一个或多个Partition组成了一个Topic。

(2)topic中的多个partition以文件夹的式保存到broker(每个文件夹保存内容不一样),每个分区序号从0递增,且消息有序

注:一般多少表就有多少topoc,但有一些同类表可能会预聚合存放在一个topic里

   Partition有2个部分组成:(1)index log(定位索引信息) (2)message log(存储真实数据)

查找:二分法+顺序遍历(解决给定一个顺序数字队列,如何快速找到其中某个值的位置?)


6. Segment:partition物理上由多个segment组成。

7. offset : 每个partition都由一系列有序的、不可变的消息组成,这些消息被连续的追加到partition中。partition中的每个消息都有一个连续递增的序列号叫做offset,偏移量offset在每个分区中是唯一的。

偏移量offset(在topic中存在offset),定位数据读取的位置(不仅要确定读offset的位置,更要是哪个partition中读)

offset 位置:消费者在对应分区上已经消费的消息数(位置) offset保存的地方跟kafka版本有一定的关系。

    kafka0.8 版本之前offset保存在zookeeper上。

    kafka0.8 版本之后offset保存在kafka集群上。

  •     LEO:每个副本的最后一条消息的offset

  •     HW:一个分区中所有副本最小的offset

Offset命名:kafka的存储文件都是按照offset.kafka来命名,用offset做名字的好处是方便查找。例如你想找位于2049的位置,只要找到2048.kafka的文件即可。当然thefirst offset就是00000000000.kafka。

Kafka的消息是无状态,降低Kafka实现的难度,消费者必须自己维护已消费的状态信息

 

8.replica副本:partition 的副本,保障 partition 的高可用(多副本实现)

Kafka分区多副本是Kafka可靠性的核心保证,把消息写入到多个副本可以使Kafka在崩溃时保证消息的持久性及可靠性。

topic下会划分多个partition,每个partition都有自己的replica,其中只有一个是leader replica,其余的是follower replica。

Topic、partition、replica的关系如下图:

  • 副本可以在设置主题的时候可以通过replication-factor参数来设置,也可以在broker级别中设置defalut.replication-factor来指定,一般我们都设置为3;

  • 三个副本中有一个副本是leader,两个副本是follower,leader负责消息的读写,follower负责定期从leader中复制最新的消息,保证follower和leader的消息一致性,当leader宕机后,会从follower中选举出新的leader负责读写消息,通过分区副本的架构,虽然引入了数据冗余,但是保证了kafka的高可靠。

• follower: replica 中的一个角色,从 leader 中复制(fentch)数据。

• leader: replica 中的一个角色, producer 和 consumer 只跟 leader 交互。

• controller:kafka 集群中的其中一个服务器,用来进行 leader election 以及各种 failover。

9.zookeeper:

kafka 通过 zookeeper 来存储集群的 meta 信息和偏移量(offset)。

Kafka需要和zookeeper联合部署,Zookeeper保证了Kafka系统可用性,Topic中的一些信息也要保存Zookeeper中。

(1) Kafka 通过 zookeeper 来存储集群的 meta 信息。

(2) 一旦controller所在broker宕机了,此时临时节点消失,集群里其他broker会一直监听这个临时节点,发现临时节点消失了,就争抢再次创建临时节点,保证有一台新的broker会成为controller角色。

broker依然依赖于ZK,zookeeper 在kafka中还用来选举controller和检测broker是否存活等等。

zk维护offset一致:

10.Consumer group

同一个group的consumer可以并行消费同一个topic的消息,但是同group的consumer,不会重复消费。

如果同一个topic需要被多次消费,可以通过设立多个consumer group来实现。每个group分别消费,互不影响。

  • high-level consumer API 中,每个 consumer 都属于一个 consumer group。

  • 每条消息和partition只能被 consumer group 中一个 Consumer 消费,但可被多个 consumer group 消费

查看命令:

11.Message消息--kafka数据单位:(Flume -event、hdfs-block、Kafka--message )

kafka的最基本的数据单元——message,最大的消费message不能超过1M,可通过配置控制

• 每个producer可以向一个topic(主题)发布一些消息。如果consumer订阅这个主题,新发布消息会广播给这consumer。

• message format:– message length : 4 bytes -1 空        – "magic" value : 1 byte (kafka服务协议版本号,做兼容)

– crc32 : 4 bytes      – timestamp 8 bytes       – payload : n bytes

kafka持久化:

• Kafka存储布局简单:Topic的每个Partition对应一个逻辑日志(一个日志为相同大小的一组分段文件)

• 每次生产者发布消息到一个分区,代理就将消息追加到最后一个段文件segment中。当发布的消息数量达到设定值或者经过一定的    时间后,一段文件真正flush磁盘中。     写入完成后,消息公开给消费者。

• 与传统的消息系统不同,Kafka系统中存储的消息没有明确的消息Id。

• 消息通过日志中的逻辑偏移量来公开。

12.传输效率高:zero-copy,内核调用,直接将磁盘上的数据拷贝到socket,而不用通过应用程序传输。

zero-copy:kafka为了减少字节拷贝,采用了大多数系统都会提供的sendfile系统调用

Kafka的消息是无状态,降低Kafka实现难度,消费者必须自己维护已消费的状态信息,代理完全不管

这种设计非常微妙,它本身包含了创新

– 从代理删除消息变得很棘手,因为代理并不知道消费者是否已经使用了该消息。Kafka创新性地解决了这个问题,它将一个简单的基于时间的SLA应用于保留策略。当消息在代理中超过一定时间后,将会被自动删除。

– 好处:消费者可以故意倒回到老的偏移量再次消费数据。这违反了队列常见约定,但被证明是许多消费者的基本特征。

13.可靠性交付保证

Kafka默认采用at least once的消息投递策略。即在消费者端的处理顺序是获得消息->处理消息->保存位置。这可能导致一旦客户端挂掉,新的客户端接管时处理前面客户端已处理过的消息。

三种保证策略:

– At most once 消息可能会丢,但绝不会重复传输 (很少用)

– At least one 消息绝不会丢,但可能会重复传输 (常用

– Exactly once 每条消息肯定会被传输一次且仅传输一次

副本管理

• kafka将日志复制到指定多个服务器上。

• 复本的单元是partition。在正常情况下,每个分区有一个leader和0到多个follower。

• leader处理对应分区上所有的读写请求。分区可以多于broker数,leader也是分布式的。

• follower的日志和leader日志相同的, follower被动复制leader。如果leader挂,其中一个follower会自动变成新的leader.

14、ISR集合(同步副本)in-sync replica:leader partition保持同步的follower partition的数量

Kafka集群内部topic有多个partition,为了达到高可用目的,采用日志副本策略:

---当出现某些机器挂了情况,如果leader挂了,必须在ISR集合里面的follower,才有机会成为leader。因为在这个ISR列表里代表他的数据跟leader是同步的。

ISR集合,只要在该集合中的follower才有机会成为leader。

如何让leader知道follower是否成功接收数据(心跳、ack)

15、如何判断活着:

(1)心跳

(2)如何slave能够紧随leader的更新不至于落的太远,就认为有效,否则认为slave挂掉,需要从ISR中剔除掉slave

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Kafka教程PDF是一份关于Kafka消息系统的教学材料,用于指导用户学习和理解Kafka的基本概念、架构和使用方式。 Kafka是一个分布式的高吞吐量消息队列系统,广泛应用于大规模数据处理和分布式系统中。它基于发布订阅模型,消息以topics的形式进行分类,发送者(producer)将消息发送到指定topic,消费者(consumer)则从topic中读取消息。 在Kafka教程PDF中,首先会介绍Kafka概念和架构。Kafka由多个broker组成,每个broker负责存储和处理一部分消息。教程将详细解释每个组件的角色和功能,帮助读者理解Kafka的整体工作原理。 接下来,教程会介绍如何在本地或集群环境中安装和配置Kafka。读者将学习如何设置Zookeeper,用于Kafka的协调和管理。然后,教程将展示如何创建和管理topics,包括设置partition和replication等参数。 在使用Kafka之前,了解如何创建producer和consumer是很重要的。教程会详细介绍如何编写代码创建producer和consumer,并演示如何发送和接收消息。 此外,Kafka教程还会讨论一些高级功能和用法,例如Kafka Streams(用于实时流处理)、Kafka Connect(用于与外部系统的数据传输)和Kafka REST Proxy(用于通过REST API与Kafka交互)等。 最后,教程还会提供一些实用的技巧和最佳实践,帮助读者更好地使用和优化Kafka。 总之,Kafka教程PDF提供了一个系统而全面的学习资源,可以帮助读者快速入门和掌握Kafka的核心概念和使用方法。无论是初学者还是有一定经验的开发人员都可以从中受益。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

GoAI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值