【Kafka入门】搭建Kafka本地环境

本博文介绍如何一步步搭建起Kafka本地环境。

下载Kafka 0.9.0.0 并配置软链接

  下载好后,放入电脑本地安装目录,mac下我放在/usr/local下,解压Kafka。

tar -xzf kafka_2.11-0.9.0.0.tgz

  然后建立一个当前版本的kafka的软链接,这样在配置的时候系统环境配置的时候不需要写版本号,也有利于以后的版本更新。

ln -s kafka_2.11-0.9.0.0 kafka

  接着cd kafka进入主目录。

 

启动Kafka Server

  在启动前,需要安装并配置Zookeeper,不过在kafka中带有一个单节点示例的Zookeeper实例脚本包,所以我们也可以先不安装配置Zookeeper,在启动Kafka Server前,我们先启动Zookeeper:

bin/zookeeper-server-start.sh config/zookeeper.properties

  在Zookeeper成功启动以后,就可以启动Kafka Server了:

bin/kafka-server-start.sh config/server.properties

 

创建topic话题

  通过下面的脚本,我们创建了一个名为test的topic话题,该话题分区数为1,冗余份数为1。然后通过list展示当前话题,会列出test。  

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
bin/kafka-topics.sh --list --zookeeper localhost:2181

 

启动生产者Producer和消费者Consumer

  通过以下脚本启动一个Producer,然后可以输入生产的消息:

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

this is a test of producer

   通过下面的命令启动消费者Consumer来消费,然后会打印出上述输入的消息:

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
this is a test of producer

  如果上述两个命令,在不同的终端启动,这时候你在生产者终端输入消息并回车,消费者端可以看到。

 

启动多broker的集群

  由于Kafka是分布式的消息系统,目前我们只是启动了一个Kafka Server,并看不到分布式的效果,下面在本地启动多个Kafka Server,首先我们需要将server的配置文件复制两份,因为每个Kafka服务启动都是依赖配置文件,在配置文件中设置了诸如服务启动端口等信息。

cp config/server.properties config/server-1.properties
cp config/server.properties config/server-2.properties

  修改上述复制出来的配置文件,由于默认服务启动在9092端口,所以后续两个server启动在9093和9094;然后默认的server的broker id为0,由于id是borker的唯一标识,所以后续的id依次为1和2.默认的几个属性如下:

broker.id=0

############################# Socket Server Settings #############################

listeners=PLAINTEXT://:9092

# The port the socket server listens on
#port=9092

# A comma seperated list of directories under which to store log files
log.dirs=/tmp/kafka-logs

  server1和server2的关于这几个属性的配置修改如下:

broker.id=1
listeners=PLAINTEXT://:9093
port=9093
log.dirs=/tmp/kafka-logs-1

broker.id=2
listeners=PLAINTEXT://:9094
port=9094
log.dirs=/tmp/kafka-logs-2

  然后依次启动两个broker的服务:

bin/kafka-server-start.sh config/server-1.properties 
bin/kafka-server-start.sh config/server-2.properties

  最好在多个终端启动,分别看看效果。

  接着我们启动一个冗余数为3的topic并describe这个topic,效果显示如下:

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replication-topic
Created topic "my-replication-topic".
bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replication-topic
Topic:my-replication-topic    PartitionCount:1    ReplicationFactor:3    Configs:
Topic: my-replication-topic    Partition: 0    Leader: 0    Replicas: 0,2,1    Isr: 0,2,1

  显示的内容一共是两行,第一行是对所有partition的总结,后续各行是每个partition的信息,由于我们这里只有一个partition,所以后续只有1行(也就是第二行)

  • Leader:表示负责该partition所有读写的节点
  • Replicas:所有拥有该partition 日志的备份数据的节点,不管这些节点是否是Leader或者活着。
  • Isr:是所有同步Replicas集合。 这是Replicas列表的子集合,在这个集合中的都是活着并且赶上Leader进度的。

多broker的容错性测试

  上面的my-replication-topic的Leader是0号服务,那我们尝试找到0号broker并将该进程杀死,脚本如下:

Lilis-MacBook-Pro:kafka_2.10-0.9.0.0 lili$ ps | grep server.properties
 2366 ttys001    1:28.51 /Library/Java/JavaVirtualMachines。。。
 2686 ttys006    0:00.00 grep server.properties
Lilis-MacBook-Pro:kafka_2.10-0.9.0.0 lili$ kill -9 2366

  再describe my-replication-topic的时候,发现leader已经变了,此时变成了2号broker,而且同步Replicas集合中也少了0号broker。

Lilis-MacBook-Pro:kafka_2.10-0.9.0.0 lili$ bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replication-topic
Topic:my-replication-topic    PartitionCount:1    ReplicationFactor:3    Configs:
    Topic: my-replication-topic    Partition: 0    Leader: 2    Replicas: 0,2,1    Isr: 2,1
Lilis-MacBook-Pro:kafka_2.10-0.9.0.0 lili$

  当然,再次启动消费者来消费消息,消息依然还是存在的。

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replication-topic

 

转载于:https://www.cnblogs.com/gslyyq/p/5060037.html

已标记关键词 清除标记
表情包
插入表情
评论将由博主筛选后显示,对所有人可见 | 还能输入1000个字符
相关推荐
©️2020 CSDN 皮肤主题: 编程工作室 设计师:CSDN官方博客 返回首页