1.首先确保三台服务器的jdk和zookeeper已经安装完成,并且可以使用
2. 在/opt/modules下上传kafka安装包
3. 解压 tar -zxvf kafka_2.12-2.2.0.tgz
4. 在kafka_2.12-2.2.0 下创建logs目录
5. 修改配置文件 cd config
vim server.properties
修改
#broker的全局唯一编号,不能重复
broker.id=0
#kafka运行日志存放的路径
log.dirs=/opt/module/kafka/logs
#配置连接Zookeeper集群地址
zookeeper.connect=hadoop1:2181,hadoop2:2181,hadoop3:2181
6.配置环境变量
vi /etc/profile
#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=
P
A
T
H
:
PATH:
PATH:KAFKA_HOME/bin
7.分别在hadoop2和hadoop3上做如上步骤
8.启动:
先启动zookeeper集群
启动命令 bin/kafka-server-start.sh config/server.properties &
9.常用命令
1)查看当前服务器中的所有topic
bin/kafka-topics.sh --list --zookeeper hadoop102:2181
2)创建topic
bin/kafka-topics.sh --create --zookeeper hadoop102:2181 --replication-factor 3 --partitions 1 --topic first
选项说明:
–topic 定义topic名
–replication-factor 定义副本数
–partitions 定义分区数
3)删除topic
bin/kafka-topics.sh --delete --zookeeper hadoop102:2181 --topic first
需要server.properties中设置delete.topic.enable=true否则只是标记删除或者直接重启。
4)发送消息
bin/kafka-console-producer.sh --broker-list hadoop102:9092 --topic first
hello world
5)消费消息
bin/kafka-console-consumer.sh --zookeeper hadoop102:2181 --from-beginning --topic first
6)查看某个Topic的详情
bin/kafka-topics.sh --topic first --describe --zookeeper hadoop102:2181