前言:前面搭好了kafka要依赖的zookeeper(其实kafka自己内置了zookeeper,但我还是用自己搭的),现在开始搭建kafka集群。
在/opt目录解压后,进入config/server.properties修改:
broker.id=1 #每个kafka节点要唯一
listeners=PLAINTEXT://192.168.1.128:9092 #对应的kafka机器的ip
advertised.listeners=PLAINTEXT://192.168.1.128:9092
log.dirs=/tmp/kafka-logs #kafka数据存储目录,不是kafka日志目录
num.partitions=3 #kafka数据默认分区
num.recovery.threads.per.data.dir=3 #每个数据目录在启动时用于日志恢复和在关闭时用于刷新的线程数。如果安装的数据目录位于RAID阵列中,建议增加该值。
zookeeper.connect=192.168.1.128:2181,192.168.1.135:2181,192.168.1.136:2181 #zookeeper地址
然后在每台机器上,后台启动kafka:
setsid bin/kafka-server-start.sh config/server.properties
在128上启动一个生产者,并且topic是kafkaaa:
bin/kafka-console-producer.sh --broker-list 192.168.1.128:9092 --topic kafkaaa
在135上启动一个消费者消费kafkaaa:
./bin/kafka-console-consumer.sh --bootstrap-server 192.168.1.135:9092 --topic kafkaaa --from-beginning
在136上查看所有topic列表:
bin/kafka-topics.sh --list --zookeeper 192.168.1.128:2181
最后查看topic的情况:
bin/kafka-topics.sh --describe --zookeeper 192.168.1.135:2181 --topic kafkaaa
kafka集群搭建完成。后面可能会出kafka配置文件详解。