Kafka入门
基本介绍
Message Queue(MQ),消息队列中间件。很多人都说:MQ 通过将消息的发送和接收分离来实现应用程序的异步和解偶,这个给人的直觉是——MQ 是异步的,用来解耦的,但是这个只是 MQ 的效果而不是目的。MQ 真正的目的是为了通讯,屏蔽底层复杂的通讯协议,定义了一套应用层的、更加简单的通讯协议。
-
传统定义:Kafka是一个分布式的基于发布/订阅模式的消息队列(Message Queue),主要应用于大数据实时处理领域。
-
最新定义:Kafka是 一个开源的分布式事件流平台 (Event Streaming Platform),被数千家公司用于高性能数据管道、流分析、数据集成和关键任务应用。
两种模式
作为消息队列,那么就具有两种基本的操作模式:
- 点对点的模式
消费者主动拉取数据,消费后删除
- 发布订阅模式
特点:可以有多个topic主题(浏览、点赞、收藏、评论等)。消费者消费数据之后,不删除数据。每个消费者相互独立,都可以消费到数据。
下载安装
首先进入官网进行下载:https://kafka.apache.org/downloads
安装后有一个先启动zookeeper,在启动Kafka。(注意Kafka3.0开始可以不用zookeeper了)
基本命令操作
首先是建立 topic(主题),这里建立了一个test主题:
kafka-topics.bat --create --zookeeper 127.0.0.1:2181 --replication-factor 1 --partitions 1 --topic test
然后是查看相应的主题:
kafka-topics.bat --list --zookeeper 127.0.0.1:2181
删除主题命令:
kafka-topics --delete --zookeeper 127.0.0.1:2181 --topic test
使用Kafka及逆行生产者消费者通信
kafka自带了一个producer命令客户端,可以从本地文件中读取内容,或者我们也可以以命令行中直接输入内容,并将这些内容以消息的形式发送到kafka集群中。在默认情况下,每一个行会被当做成一个独立的消息。使用kafka的发送消息的客户端,指定发送到的kafka服务器地址和topic。
发送消息(生产者)命令如下:
kafka-console-producer.bat --broker-list 127.0.0.1:9092 --topic test
对于consumer,kafka同样也携带了一个命令行客户端,会将获取到内容在命令中进行输 出, 默认是消费最新的消息 。使用kafka的消费者消息的客户端,从指定kafka服务器的指定 topic中消费消息
消费消息(消费者)命令如下:
# 方式一:从最后一条消息的偏移量+1开始消费
kafka-console-consumer.bat --bootstrap-server 127.0.0.1:9092 --topic test
# 方式二:从头开始消费
kafka-console-consumer.bat --bootstrap-server 127.0.0.1:9092 --from-beginning --topic test
效果如下:
概念名词
首先,让我们来看一下基础的消息(Message)相关术语:
名称 | 解释 |
---|---|
Broker | 消息中间件处理节点,⼀个Kafka节点就是⼀个broker,⼀个或者多个Broker可以组成⼀个Kafka集群 |
Topic | Kafka根据topic对消息进⾏归类,发布到Kafka集群的每条消息都需要指定⼀个topic |
Producer | 消息⽣产者,向Broker发送消息的客户端 |
Consumer | 消息消费者,从Broker读取消息的客户端 |
ConsumerGroup | 每个Consumer属于⼀个特定的Consumer Group(消费者群组),⼀条消息可以被多个不同的Consumer Group消费,但是⼀个Consumer Group中只能有⼀个Consumer能够消费该消息 |
Partition | 物理上的概念,⼀个topic可以分为多个partition,每个partition内部消息是有序的 |
服务端(brokers)和客户端(producer、consumer)之间通信通过 TCP协议 来完成。
注意点
通过这些介绍,再来说明上面的测试中的一些说明:
- 消息会被存储 (存储在log文件中)
- 消息是顺序存储(满足队列的要求)
- 消息是有偏移量的(比如消费消费指定从哪里读取,前面的不会被消费)
- 消费时可以指明偏移量进行消费
细节方面
-
消息的发送方会把消息发送到broker中,broker会存储消息,消息是按照发送的顺序进行存储。因此消费者在消费消息时可以指明主题中消息的偏移量。默认情况下,是从最后一个消息的下一个偏移量开始消费。
-
单播消息:一个消费
组
里只会有一个消费者能消费到某一个topic中的消息。于是可以创建多个消费者,这些消费者在同一个消费组中。kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --consumer-property group.id=testGroup --topic test
每一个消费者执行这个就会分加入到
testGroup
这个组中。 -
多播实现: 在一些业务场景中需要让一条消息被多个消费者消费,那么就可以使用多播模式。
kafka实现多播,只需要让不同的消费者处于不同的消费组即可。
kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --consumer-property group.id=testGroup1 --topic test kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --consumer-property group.id=testGroup2 --topic test
-
查看消费组以及消费信息
# 查看当前主题下有哪些消费组 kafka-consumer-groups.sh --bootstrap-server 127.0.0.1:9092 --list # 查看消费组中的具体信息:比如当前偏移量、最后一条消息的偏移量、堆积的消息数量 kafka-consumer-groups.sh --bootstrap-server 127.0.0.1:9092 --describe --group testGroup
-
Currennt-offset: 当前消费组的已消费偏移量
-
Log-end-offset: 主题对应分区消息的结束偏移量(HW)
-
Lag: 当前消费组未消费的消息数
配置文件介绍
kafka配置文件 server.properties
首先是这个部分的配置文件,相关配置:
Property | Default | Description |
---|---|---|
broker.id | 0 | 每个broker都可以⽤⼀个唯⼀的⾮负整数id进⾏标识;这个id可以作为broker的“名字”,你可以选择任意你喜欢的数字作为id,只要id是唯⼀的即可。 |
log.dirs | /tmp/kafka-logs | kafka存放数据的路径。这个路径并不是唯⼀的,可以是多个,路径之间只需要使⽤逗号分隔即可;每当创建新partition时,都会选择在包含最少partitions的路径下进⾏。 |
listeners | PLAINTEXT://192.168.65.60:9092 | server接受客户端连接的端⼝,ip配置kafka本机ip即可 |
zookeeper.connect | localhost:2181 | zooKeeper连接字符串的格式为:hostname:port,此处hostname和port分别是ZooKeeper集群中某个节点的host和port;zookeeper如果是集群,连接⽅式为hostname1:port1, hostname2:port2,hostname3:port3 |
log.retention.hours | 168 | 每个⽇志⽂件删除之前保存的时间。默认数据保存时间对所有topic都⼀样。 |
num.partitions | 1 | 创建topic的默认分区数 |
default.replication.factor | 1 | ⾃动创建topic的默认副本数量,建议设置为⼤于等于2 |
min.insync.replicas | 1 | 当producer设置acks为-1时,min.insync.replicas指定replicas的最⼩数⽬(必须确认每⼀个repica的写数据都是成功的),如果这个数⽬没有达到,producer发送消息会产⽣异常 |
delete.topic.enable | false | 是否允许删除主题 |
主题分区和副本关系
主题和分区
主题没啥好说的了,就一个分类而已。
partition 分区
上面说过,一个主题只是一个逻辑的概念,实际的数据是存储在分区里面。
一个主题中的消息量是非常大的,因此可以通过分区的设置,来分布式存储这些消息。比如一个topic创建了 3 个分区。那么topic中的消息就会分别存放在这三个分区中。命令如下:
# 一个主题两个分区 --partitions 2 就表示两个分区
kafka-topics.sh --create --zookeeper localhost:2181 --partitions 2 --topic test1
# 查看分区的信息
kafka-topics.sh --describe --zookeeper localhost:2181 --topic test1
分区的作用以及系统分区
第一点也就是最重要的一点,就是可以分布式的存储。什么概念,Kafka是可以集群的,当处于一个集群的时候。每个节点中相同的主题中分区就是数据共享的。也正是这样,就可以有了第二个点可以并发的写数据。
数据实际上存储在:data/kafka-logs/test-0(这个路径是Kafka配置文件指定)中的0000000.log文件中。
这里有个细节,就是明明我只创建了test主题并分配一个分区,按理来说只有test-0这个目录,但实际上这里生成了50个__consumer_offsets
目录,这个其实就是自带的分区,用于记录消费者消费到了那个消息!
上面提到过偏移量概念,这里其实也是一个偏移量的概念。
总之,消费者消费消息,会提交自己消费到了哪里(也就是offset),这个就会保存到_consumer_offsets
里面,这个保存的结构就是 k-v 结构, k e y = c o n s u m e r G r o u p I d + t o p i c + 分 区 号 , v a l u e = o f f s e t key=consumerGroupId + topic + 分区号,value=offset key=consumerGroupId+topic+分区号,value=offset。
这样一来,同一个消费群组(consumerGroup)有一个挂了,另外的消费者就可以通过key找到是哪个__consumer_offsets
记录topic中的分区,再去通过value找到消费到了那里,就可以继续消费了。
那么这里又有一个问题就是怎么知道消费者提交的 offset 存储到了哪个__consumer_offsets
分区中呢?其实这里就是一个分布式系统常见的计算方式:hash(consumerGroupId) % __consumer_offsets主题的分区个数
副本
集群的搭建
假设搭建三个节点的集群,所以需要准备三个server.properties配置文件。只需要更改以下内容:
# 节点一 由于这里都是在同一个机器上部署,所以listeners都是一个样的,只有后面的端口不一样
broker.id= 0
listeners=PLAINTEXT://127.0.0.1:9092
log.dir=/usr/local/data/kafka-logs
# 节点二 由于这里都是在同一个机器上部署,所以listeners都是一个样的,只有后面的端口不一样
broker.id= 1
listeners=PLAINTEXT://127.0.0.1:9093
log.dir=/usr/local/data/kafka-logs1
# 节点二 由于这里都是在同一个机器上部署,所以listeners都是一个样的,只有后面的端口不一样
broker.id= 2
listeners=PLAINTEXT://127.0.0.1:9094
log.dir=/usr/local/data/kafka-logs2
启动命令如下:
# 指定不同的配置文件即可 -daemon 的意思就是守护进程方式(也就是后台启动)
kafka-server-start.sh -daemon ../../config/server.properties
集群发送消息命令如下:
kafka-console-producer.sh --broker-list 127.0.0.1:9092,127.0.0.1:9093,127.0.0.1:9094 --topic test
接收消费消息命令如下:
kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092,127.0.0.1:9093,127.0.0.1:9094 --from-beginning --topic test
副本概念
副本机制是许多存储引擎必备的,在数据存储时候,为了保证数据的高可靠性,常常需要将主节点数据进行备份存储,即保存一份与主节点相同的数据集,一旦主节点发生宕机等故障,通过副本还能进行数据的恢复。
在集群中,不同的副本会被部署在不同的broker上。下面例子:创建 1个主题, 2 个分区、 3 个副本。
kafka-topics.sh --create --zookeeper 127.0.0.1:2181 --replication-factor 3 --partitions 2 --topic test
根据这个集群,创建之后,三个节点都有这个主题,并且都有两个分区,其中只有两个分区是leader用来读写数据,另外的4个是这两个的备份。
使用如下命令查看主题的详细信息:
kafka-topics.bat --describe --zookeeper 127.0.0.1:2181 -topic test
通过查看主题信息,其中的关键数据:
-
replicas:当前副本存在的broker节点
-
leader:副本里的概念,这里的数字标识当前分区leader位于哪个broker
每个partition都有一个broker作为leader。消息发送方要把消息发给哪个broker?就看副本的leader是在哪个broker上面。副本里的leader专⻔用来接收消息。接收到消息,其他follower通过poll的方式来同步数据。
-
follower:leader处理所有针对这个partition的读写请求,而follower被动复制leader,不提供读写(主要是为了保证多副本数据与消费的一致性),如果leader所在的broker挂掉,那么就会进行新leader的选举。
- isr: 可以同步的broker节点和已同步的broker节点,存放在isr集合中。
总结几个点
-
默认副本 1 个,生产环境一