kafka集群搭建

本文档详细介绍了如何搭建Kafka单机模式和集群模式,包括解压软件、配置环境变量、启动Zookeeper和Kafka、创建及删除topic、查看topic信息、启动生产者和消费者进行消息测试。在集群模式中,特别强调了server.properties配置,如broker.id、log.dirs、zookeeper.connect等,并提到了自动创建topic的设置。
摘要由CSDN通过智能技术生成

个人博客原文链接

Kafka单机模式

1.解压
tar -xvf kafka_2.11-0.8.0.0.tgz -C /home/hadoop/apps/

2.配置环境变量
vi ~/.bashrc

export KAFKA_HOME=/opt/software/kafka      
export PATH=$PATH:$KAFKA_HOME/bin

source ~/.bashrc

3.启动zookeeper
zkServer.sh start
zkServer.sh status

4.启动kafaka
kafka-server-start.sh /home/hadoop/apps/kafka/config/server.properties

5.创建topic
kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
解释:
–zookeeper:zookeeper地址:端口
–replication-factor :副本数量
–partitions:分区数量
–topic:主题名称

6.删除topic
前提要求:
server.properties中设置
delete.topic.enable=true
kafka-topics.sh --delete --zookeeper localhost:2181 --topic test
删除kafka存储目录(server.properties文件log.dirs配置,默认为"/tmp/kafka-logs")相关topic目录。删除zookeeper "/brokers/topics/"目录下相关topic节点

7.查看topic
kafka-topics.sh --list --zookeeper localhost:2181

8.查看指定topic的详细信息
kafka-topics.sh --describe --zookeeper localhost:2181 --topic test
说明:{
partiton:分区:ID
leader:当前负责读写的lead broker idk
relicas:当前partition的所有replication broker
listisr:relicas的子集,只包含出于活动状态的broker}

9.开启生产者
开启新窗口
kafka-console-producer.sh --broker-list localhost:9092 --topic test

10.开启消费者
开启新窗口
kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

11.发送消息测试
在生产者一端输入数据,在消费者一端可以接收到数据

Kafka集群搭建

1.解压
tar -xvf kafka_2.11-0.8.0.0.tgz -C /home/hadoop/apps/

2.配置环境变量
vi ~/.bashrc

export KAFKA_HOME=/opt/software/kafka      
export PATH=$PATH:$KAFKA_HOME/bin

source ~/.bashrc

3.修改server.properties配置文件
vi /home/hadoop/apps/kafka/config/server.properties
a. broker.id=0 (不同的机器值不同)
b. log.dirs=/home/hadoop/apps/kafka/kafka-logs (指定存储目录)
c. delete.topic.enable=true (设置可以删除topic,该条配置放在log.dirs下面即可)
d. zookeeper.connect=hadoop1:2181,hadoop2:2181,hadoop3:2181 (zookeep集群ip:port)
e. auto.create.topic.enable=true(自动创建topic)

4.将整个kafaka发送到其他子集群
scp -r kafka_2.11-1.1.0/ hadoop2:/home/hadoop/apps/
scp -r kafka_2.11-1.1.0/ hadoop3:/home/hadoop/apps/

5.修改子集群
a. 环境变量
b. server.properties文件的broker.id

6.启动zookeeper集群
在所有机器上
zkServer.sh start
zkServer.sh status

7.启动kafaka集群
在所有机器上
kafka-server-start.sh /home/hadoop/apps/kafka/config/server.properties

8.创建topic
kafka-topics.sh --create --topic shop --partitions 2 --replication-factor 3 --zookeeper hadoop1:2181,hadoop2:2181,hadoop3:2181
解释:
–zookeeper:zookeeper地址:端口
–replication-factor :副本数量
–partitions:分区数量
–topic:主题名称

9.删除topic
前提要求:
server.properties中设置
delete.topic.enable=true
kafka-topics.sh --delete --zookeeper hadoop1:2181,hadoop2:2181,hadoop3:2181 --topic shop
删除kafka存储目录(server.properties文件log.dirs配置,默认为"/tmp/kafka-logs")相关topic目录。删除zookeeper "/brokers/topics/"目录下相关topic节点

10.查看topic
kafka-topics.sh --list --zookeeper hadoop1:2181,hadoop2:2181,hadoop3:2181

11.查看指定topic的详细信息
kafka-topics.sh --describe --zookeeper hadoop1:2181,hadoop2:2181,hadoop3:2181 --topic test
说明:{
partiton:分区:ID
leader:当前负责读写的lead broker idk
relicas:当前partition的所有replication broker
listisr:relicas的子集,只包含出于活动状态的broker}

12.开启生产者
开启新窗口
kafka-console-producer.sh --broker-list hadoop1:9092,hadoop2:9092,hadoop3:9092 --topic shop

13.开启消费者
开启新窗口
kafka-console-consumer.sh --bootstrap-server hadoop1:9092,hadoop2:9092,hadoop3:9092 --topic shop --from-beginning

14.发送消息测试
在生产者一端输入数据,在消费者一端可以接收到数据

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值