需要先安装zookeeper,不然可能无法启动,如果还没有安装zookeeper的,可以看下我的这篇文章Centos安装Zookeeper教程(一次就成功版!)-CSDN博客
1.下载并解压kafka
官方下载链接为http://kafka.apache.org/downloads.html
下载后的压缩包放在/opt/software中
解压至/opt/module,并修改解压后的文件名称方便使用
tar -zxvf kafka_2.12-3.3.1.tgz -C /opt/module/
cd /opt/module/
mv kafka_2.12-3.3.1/ kafka
2.修改配置文件
进入到/opt/module/kafka/config目录下,修改配置文件
cd /opt/module/kafka/config
vim server.properties
(1)首先是broker.id,第一个服务器是0可以不用改,但是集群中的broker.id应该唯一,其他服务器的broker.id需要修改
(2)然后是配置listeners,同样hadoop102需要根据节点名称修改
(3)配置log.dirs
(4)配置zookeeper.connect
配置单个服务器kafka已完毕,需安装集群可以接着往下看
3.修改其余两台服务器配置
以如下集群规划为例:
hadoop102 | hadoop103 | hadoop104 |
---|---|---|
kafka | kafka | kafka |
分发安装包,需要的可以搜一下xsync这个脚本,很好用
cd /opt/module
xsync kafka/
分别在hadoop103和hadoop104上修改配置文件/opt/module/kafka/config/server.properties中的broker.id及advertised.listeners
cd /opt/module/kafka/config/
vim server.properties
4.配置环境变量
回到hadoop102在/etc/profile.d/my_env.sh文件中增加kafka环境变量配置
sudo vim /etc/profile.d/my_env.sh
添加如下内容
#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin
刷新环境变量
source /etc/profile
分发环境变量文件到其他节点,并在每个节点source一下
sudo xsync /etc/profile.d/my_env.sh
source /etc/profile
5.启动集群
先依次启动zookeeper,再依次在hadoop102、hadoop103、hadoop104节点上启动Kafka。
cd /opt/module/kafka
bin/kafka-server-start.sh -daemon config/server.properties
查看启动情况
使用下面的命令行在各集群依次操作可关闭kafka
bin/kafka-server-stop.sh
完工