一:入门
1、简介
kafka是一个分布式消息缓存系统。
2、broker
kafka集群中的每个服务器都叫broker。
3、客户端
kafka有两类客户端:producer(消息生产者)和 consumer(消息消费者),客户端和broker服务器之间采用tcp协议连接。
4、Topic(主题)和partition(分区)
kafka中不同业务系统的消息可以通过topic进行区分,而且每一个消息topic都会被分区,以分担消息读写的负载。每个partition在存储层面是append log文件,任何发布到此partition的消息都会被直接追加到log文件的尾部,每条消息在文件中的位置称为offset(偏移量),offset为一个long型数字,它是唯一标记一条消息。
5、消息分布式存储(Distribution)
每一个分区都可以有多个副本,以防止数据的丢失,每个partition都有一个server为"leader",某一个分区中的数据如果需要更新,都必须通过该分区所有副本中的leader来更新。
6、消费者分组机制(consumer group)
消费者可以分组,比如有两个消费者组A和B,共同消费一个topic:order_info,A和B所消费的消息不会重复。比如 order_info 中有100个消息,每个消息有一个id,编号从0-99,那么,如果A组消费0-49号,B组就消费50-99号。消费者在具体消费某个topic中的消息时,可以指定起始偏移量。一个Topic中的每个partions,只会被一个group中的一个consumer消费,不过一个consumer可以消费多个partitions中的消息。
二、集群安装
集群安装
1、解压
2、修改server.properties
broker.id=1
zookeeper.connect=week05:2181,week06:2181,week07:2181
3、将zookeeper集群启动
4、在每一台节点上启动broker
bin/kafka-server-start.sh config/server.properties
5、在kafka集群中创建一个topic
bin/kafka-topics.sh --create --zookeeper weekend05:2181 --replication-factor 3 --partitions 1 --topic order
6、用一个producer向某一个topic中写入消息
bin/kafka-console-producer.sh --broker-list weekend:9092 --topic order
7、用一个comsumer从某一个topic中读取信息
bin/kafka-console-consumer.sh --zookeeper weekend05:2181 --from-beginning --topic order
8、查看一个topic的分区及副本状态信息
bin/kafka-topics.sh --describe --zookeeper weekend05:2181 --topic order